Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
Tags
- OpenGL
- 동적계획법
- 손실 함수
- 3d
- 베버의 법칙
- 순방향 신경망
- 경사하강법
- bfs
- feedforward neural network
- 계단 함수
- union-find
- 알고리즘
- vanishing gradient
- 기울기 소실
- DP
- 범용 근사 정리
- dl
- 백준
- 과대적합
- 다익스트라
- 이진분류
- dijkstra
- Perceptron
- 베르누이 분포
- BOJ
- 딥러닝
- deep learning
- 이진 분류
- c++
- 단층 퍼셉트론
Archives
- Today
- Total
목록과소적합 (1)
Hello COCOBALL!

Overfitting모델이 학습 데이터에 너무 맞추어져서 새로운 데이터에 대해 일반화되지 않는 현상을 의미한다. 모델이 학습 데이터의 노이즈와 세부 사항까지 학습하여 복잡하고 불필요한 패턴을 인식하게 되는데, 이는 학습 데이터에 대한 성능은 높지만 테스트 데이터나 실제 데이터에 대한 성능은 낮아지는 결과를 초래한다.학습 데이터가 부족하거나, 데이터의 특성에 비해 모델이 너무 복잡한 경우에 발생한다.(학습 데이터보다 모델의 파라미터 개수가 더 많은 경우)Train dataset에 대한 loss는 계속 떨어지는 반면 test dataset에 대한 loss는 감소하다가 다시 증가하는 추세를 보인다. 원인모델이 너무 복잡하여 많은 매개변수를 가지고 있을 때(Model Capacity : 파라미터의 개수, 모델이..
Deep Learning
2024. 6. 21. 20:28