본문 바로가기

취업준비

(68)
[AI Tech] 3주차 16-2차시 Quiz 6 16-2. Quiz 6 1번 다음 벡터의 L1-노름을 구하시오 (정수값으로 입력). x = [-1, 2, -3] 더보기 정답: 6 풀이: L1-노름은 각 요소들의 절대값의 합으로 구한다. 2번 다음 벡터의 L2-노름을 구하시오 (정수값으로 입력). x = [-6, -8] 더보기 정답: 10 풀이: L2-노름은 각 요소들의 제곱의 합에 제곱근을 취하여 구한다. 3번 L2-노름을 이용하여 다음 두 벡터 사이의 거리를 구하시오 (정수값으로 입력). x = [-3, 0] y = [0, 4] 더보기 정답: 5 풀이: 각 요소들의 차를 제곱하여 더한 뒤 제곱근을 취하여 구한다. 4번 다음 두 벡터 사이의 각도를 구하시오 (라디안 단위: 0 이상, 7 미만의 정수값으로 입력). x = [0, 1] y = [0, 2]..
[AI Tech] 3주차 16-1차시 딥러닝 학습방법 이해하기 16차시: 딥러닝 학습방법 이해하기 16-1. 딥러닝 학습방법 이해하기 1. 신경망을 수식으로 분해해 보자 지난 시간까지 데이터를 선형모델로 해석하는 방법을 배웠다면 이제부턴 비선형모델인 신경망(neural network)을 배워볼 예정이다. 선형모델의 수식 X처럼 데이터를 모아둔 행렬과, 이 데이터를 다른 벡터 공간으로 보내주는 "가중치 행렬"인 W로 나누어 볼 수 있다. X와 W, b 가 선형적으로 구성되는 것을 "선형 모델"이라고 한다. 데이터가 바뀌면 결괏값도 바뀌게 되는데, 이때 출력 벡터의 차원은 d에서 p로 바뀌게 된다. d개의 변수로 p개의 선형모델을 만들어서 p개의 잠재변수를 설명하는 모델을 상상해 볼 수 있다. pd개의 화살표가 필요하게 되는데 이는 W와 차원이 같다. 즉, W는 화살표..
[AI Tech] 3주차 15-2차시 경사하강법 연습 15-2. 경사하강법 연습 1. 복습 경사하강법은 딥러닝 알고리즘 학습시 사용되는 최적화 방법 중 하나로, 인공지능을 공부한다면 꼭 알고 있어야 하는 내용이다. 신경망 네트워크 또는 경사하강법이 무엇인지 잘 와닿지 않으면 "앤드류 응" 교수님의 강의를 추가로 들어보자. © NAVER Connect Foundation. All Rights Reserved
[AI Tech] 3주차 15-1차시 경사하강법(순한맛) 15차시: 경사하강법 15-1. 경사하강법(순한 맛) 1. 미분이 뭔가요? 미분(Differentiation)은 변수의 움직임에 따른 함숫값이 변화를 측정하기 위한 도구로 최적화에서 제일 많이 사용하는 기법이다. 최근에는 미분을 손으로 직접 계산하는 대신 컴퓨터가 계산해 줄 수 있다. 2. 미분을 그림으로 이해해 보자 미분은 함수 f의 주어진 점 (x, f(x))에서의 접선의 기울기를 구한다. 3. 미분을 어디에 쓸까? 한 점에서 접선의 기울기를 알면 어느 방향으로 점을 움직여야 함숫값이 증가/감소하는지 알 수 있다. 미분값을 더하면 경사상승법(Gradient Ascent)이라 하며 함수의 극대값의 위치를 구할 때 사용한다. 미분값을 빼면 경사하강법(Gradient Descent)이라 하며 함수의 극소값..
[AI Tech] 3주차 14-2차시 행렬이 뭐예요? 14-2. 행렬이 뭐예요? 1. 행렬은 뭔가요? 벡터를 원소로 가지는 2차원 배열이다. x = np.array([[1,-2,3],[7,5,8],[-2,-1,2]]) 행렬은 행(row)과 열(column)이라는 인덱스(index)를 가진다. → 순서를 명확히 이해한다. 행렬의 특정 행(열)을 고정하면 행(열) 벡터라 부른다. 2. 행렬을 이해하는 방법 (1) 벡터가 공간에서 한 점을 의미한다면 행렬은 여러 점들을 나타낸다. 행렬의 행벡터 x_i는 i번째 데이터를 의미한다. 행렬의 x_ij는 i 번째 데이터의 j 번째 변수의 값을 말한다. 3. 행렬의 덧셈, 뺄셈, 성분곱, 스칼라곱 행렬은 벡터를 원소로 가지는 2차원 배열이다. 행렬끼리 같은 모양을 가지면 덧셈, 뺄셈을 게산할 수 있다. 성분곱은 벡터와 똑..
[AI Tech] 3주차 14-1차시 벡터가 뭐예요? 14차시: 벡터와 행렬 14-1. 벡터가 뭐예요? 벡터는 숫자를 원소로 가지는 리스트(list) 또는배열(array)입니다. x = [1, 7, 2] x = np.array([1, 7, 2]) 열벡터와 행벡터가 있다. 보통은 행벡터 형식으로 정의한다. 벡터에 있는 숫자들의 개수를 "벡터의 차원"이라고 한다. 1. 벡터는 공간에서 한 점을 나타낸다. 1차원: 수직선 2차원: 좌표평면 3차원: 공간 인공지능에서는 훨씬 더 큰 n차원의 공간을 다루게 된다. 2. 벡터는 원점으로부터 상대적 위치를 표현한다. 3. 벡터에 숫자를 곱해주면 길이만 변한다. "스칼라곱"이라고도 부른다. 곱하는 스칼라가 1보다 크면 길이가 늘어나고, 1보다 작으면 길이가 줄어든다. 다만, 0보다 작은 경우에는 방향이 바뀌게 된다. 4...
[AI Tech] 2주차 13차시 프로젝트 5 13차시: 프로젝트 5 [프로젝트 5] 캐글에 일단 제출해보자 (2) 1. 목표 v 컬럼명 바꾸기 v RMSLE 낮은 순서대로 정렬하기 v 함수로 만들기 2. 프로젝트 코드 RMSE 컬럼명 바꾸기 # 데이터 다운로드 !wget –no-check-certificate 'https://docs.google.com/uc?export=download&id=1IVvuG3SMlarSSGmcliGFjq1fMxZtksE0' -O kaggle-kakr-housing-data.zip # 다운로드 받은 zip파일 압축풀기 !unzip -qq ./kaggle-kakr-housing-data.zip import warnings warnings.filterwarnings("ignore") import os from os.path..
[AI Tech] 2주차 12차시 프로젝트 4 12차시: 프로젝트 4 [ 프로젝트 4 ] 캐글에 일단 제출해보자 (1) 1. 목표 v 모델 예측결과 csv로 만들기 v public score 확인하기 v 제출 결과 공유하기 2. 프로젝트 내용 코드 구현: 모델 예측 결과 csv로 만들기 # 데이터 다운로드 !wget –no-check-certificate 'https://docs.google.com/uc?export=download&id=1IVvuG3SMlarSSGmcliGFjq1fMxZtksE0' -O kaggle-kakr-housing-data.zip # 다운로드 받은 zip파일 압축풀기 !unzip -qq ./kaggle-kakr-housing-data.zip import warnings warnings.filterwarnings("ignore..
[AI Tech] 2주차 11-2차시 Quiz 5 11-2. Quiz 5 1번 하이퍼 파라미터 튜닝 방법 중 몇 가지의 잠재적 파라미터들의 후보군들을 조합하여 가장 최적의 조합을 찾는 방식으로 적절한 것을 고르시오. 1) GridSearch 2) Manual Search 3) Random Search 4) Bayesian optimization 더보기 몇가지의 잠재적 파라미터들의 후보군들을 조합하여 가장 최적의 조합을 찾는 하이퍼파라미터 튜닝 방식은 Grid Search 입 니다. Manual Search는 자동화 툴을 사용하지 않고 실험할 하이퍼 파라미터셋을 하나씩 바꿔가면서 테스트 하는 방식을 말합니다. 2번 경계 내에서 하이퍼파리미터의 임의 조합을 추출하여 최적의 하이퍼파라미터 조합을 찾는 방식으로 적절한 것을 고르시오. 1) Random Sear..
[AI Tech] 2주차 11-1차시 앙상블 11-1. 앙상블 1. 앙상블 러닝이란? 1.1 Ensemble learning의 배경 - Ensemble Algorithm: 단일 알고리즘보다 적당한 알고리즘을 여러 개 혼합하여 성능의 개선을 기대하는 방법 Relative Performance Examples: 5 Algorithms on 6 Datasets(John Elder, Elder Research & Stephen Lee, U. Idaho, 1997) Ensemble learning의 정의 - 여러 개의 결정 트리(Decision Tree)를 결합하여 하나의 결정 트리보다 더 좋은 성능을 내는 머신러닝 기법이다. - 앙상블 학습의 핵심은 여러 개의 여러 개의 약 분류기(Weak Classifier)를 결합하여 강 분류기(Strong Class..