Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
Tags
- union-find
- BOJ
- 이진 분류
- 이진분류
- deep learning
- 딥러닝
- 3d
- dijkstra
- 단층 퍼셉트론
- 알고리즘
- vanishing gradient
- c++
- 베르누이 분포
- 순방향 신경망
- 범용 근사 정리
- 백준
- dl
- 다익스트라
- 베버의 법칙
- 경사하강법
- bfs
- Perceptron
- 계단 함수
- DP
- 기울기 소실
- feedforward neural network
- 손실 함수
- 동적계획법
- 과대적합
- OpenGL
Archives
- Today
- Total
목록Overfitting (1)
Hello COCOBALL!

Overfitting모델이 학습 데이터에 너무 맞추어져서 새로운 데이터에 대해 일반화되지 않는 현상을 의미한다. 모델이 학습 데이터의 노이즈와 세부 사항까지 학습하여 복잡하고 불필요한 패턴을 인식하게 되는데, 이는 학습 데이터에 대한 성능은 높지만 테스트 데이터나 실제 데이터에 대한 성능은 낮아지는 결과를 초래한다.학습 데이터가 부족하거나, 데이터의 특성에 비해 모델이 너무 복잡한 경우에 발생한다.(학습 데이터보다 모델의 파라미터 개수가 더 많은 경우)Train dataset에 대한 loss는 계속 떨어지는 반면 test dataset에 대한 loss는 감소하다가 다시 증가하는 추세를 보인다. 원인모델이 너무 복잡하여 많은 매개변수를 가지고 있을 때(Model Capacity : 파라미터의 개수, 모델이..
Deep Learning
2024. 6. 21. 20:28