본문 바로가기

경사하강법

(3)
[AI Tech] 3주차 15-3차시 프로젝트 6 15-3. 프로젝트 6 [프로젝트 6] 경사하강법 - numpy활용 1. 목표 v 경사하강법을 위한 데이터 분리 v 경사하강법 구현을 위한 train, weight, bias 정리 v 경사하강법 구현 2. 코드구현 1. 코드 구현: 경사하강법을 위한 데이터 분리 import numpy as np xy = np.array([[1., 2., 3., 4., 5., 6.], [10., 20., 30., 40., 50., 60.]]) ## 코드시작 ## x_train = ... # ... 에 알맞은 코드를 작성해보세요. y_train = ... # ... 에 알맞은 코드를 작성해보세요. ## 코드종료 ## print(x_train, x_train.shape) print(y_train, y_train.shape) ..
[AI Tech] 3주차 15-2차시 경사하강법 연습 15-2. 경사하강법 연습 1. 복습 경사하강법은 딥러닝 알고리즘 학습시 사용되는 최적화 방법 중 하나로, 인공지능을 공부한다면 꼭 알고 있어야 하는 내용이다. 신경망 네트워크 또는 경사하강법이 무엇인지 잘 와닿지 않으면 "앤드류 응" 교수님의 강의를 추가로 들어보자. © NAVER Connect Foundation. All Rights Reserved
[AI Tech] 3주차 15-1차시 경사하강법(순한맛) 15차시: 경사하강법 15-1. 경사하강법(순한 맛) 1. 미분이 뭔가요? 미분(Differentiation)은 변수의 움직임에 따른 함숫값이 변화를 측정하기 위한 도구로 최적화에서 제일 많이 사용하는 기법이다. 최근에는 미분을 손으로 직접 계산하는 대신 컴퓨터가 계산해 줄 수 있다. 2. 미분을 그림으로 이해해 보자 미분은 함수 f의 주어진 점 (x, f(x))에서의 접선의 기울기를 구한다. 3. 미분을 어디에 쓸까? 한 점에서 접선의 기울기를 알면 어느 방향으로 점을 움직여야 함숫값이 증가/감소하는지 알 수 있다. 미분값을 더하면 경사상승법(Gradient Ascent)이라 하며 함수의 극대값의 위치를 구할 때 사용한다. 미분값을 빼면 경사하강법(Gradient Descent)이라 하며 함수의 극소값..