23차시: 최적화 - 2
23-1. Regularization
학습한 데이터 외에도 학습한 모델이 잘 적용되도록 학습을 방해하는 것을 Regularization이라고 한다.
1. Early stopping
더 많이 학습하기 전에 미리 멈춰버리는 방법
2. Parameter Norm Penalty
크기 관점에서 작게 하는 것
함수를 최대한 부드러운 함수로 보는 것 → 부드러울 수록 generalization performance가 높을 것이라는 과정이 깔려 있다.
3. Data Augmentation
아무리 딥러닝을 잘해도 데이터가 작으면 잘 학습 못할 수 있다.
Data Augmentation을 통해 데이터 양을 기하급수적으로 늘린다.
4. Noise Robustness
입력된 데이터와 가중치에 노이즈를 집어 넣는 것
왜 학습이 잘되는지에 대해서는 아직까지도 논란이다.
5. Label Smoothing
데이터 두 개를 뽑아서 두 개를 섞어주는 것이다.
CutMix는 섞어줄 때 이미지 특정 영역을 쪼개서 섞는 방법이다.
성능이 많이 올라간다.
6. Dropout
쓰면 성능이 많이 올라간다.
7. Batch Normalization
아직까지도 논란이 많은 부분이다.
일반적으로 레이어가 많이 쌓이게 되면 성능이 많이 올라간다.
© NAVER Connect Foundation. All Rights Reserved
'취업준비 > 인공지능' 카테고리의 다른 글
[AI Tech] 5주차 23-3차시 Quiz 9 (0) | 2024.02.16 |
---|---|
[AI Tech] 5주차 23-2차시 딥러닝 연습 (0) | 2024.02.16 |
[AI Tech] 5주차 22-2차시 Gradient Descent Methods (0) | 2024.02.16 |
[AI Tech] 5주차 22-1차시 최적화의 주요 용어 이해하기 (0) | 2024.02.16 |
[AI Tech] 5주차 21-2차시 Quiz 8 (0) | 2024.02.13 |