경사하강법

STUDY/머신러닝 | 딥러닝

경사하강법(Gradient Descent) 정리

최적화란? 최적화(Optimization)란 손실함수(Loss Function)값을 최소화하는 파라미터를 구하는 과정이다. 이때 손실함수는 예측값과 실제 정답값의 차이를 의미한다. Gradient Descent(경사하강법)의 정의 gradient는 기울기, 경사를 의미하며 경사하강법의 주된 목적은 함수의 최소값을 찾는 것이다. 이에 따라, 경사하강법은 기울기가 작아지는 방향을 찾고 해당 방향으로 한 걸음 씩 계속 내딛으면서 값이 제일 작은 곳을 찾아 나가는 방법이다. 💡 함수 최소값 탐색에 미분계수가 0이 되는 지점을 찾지 않고 GD 사용하는 이유는? 우리가 주로 실제 분석에서 맞닥뜨리게 되는 함수들은 닫힌 형태(closed form)가 아니거나 함수의 형태가 복잡해 (가령, 비선형함수) 미분계수와 그 ..

둥둥런
'경사하강법' 태그의 글 목록