Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
Tags
- union-find
- dl
- c++
- vanishing gradient
- 동적계획법
- deep learning
- 기울기 소실
- 손실 함수
- Perceptron
- 단층 퍼셉트론
- 다익스트라
- 알고리즘
- 딥러닝
- 3d
- 백준
- 이진 분류
- 이진분류
- 베르누이 분포
- 순방향 신경망
- 베버의 법칙
- feedforward neural network
- bfs
- 과대적합
- BOJ
- dijkstra
- DP
- OpenGL
- 경사하강법
- 범용 근사 정리
- 계단 함수
Archives
- Today
- Total
목록Mae (1)
Hello COCOBALL!

손실 함수손실 함수는 지도학습 시 모델의 예측값과 실제값 간의 차이를 측정하고, 학습중에 알고리즘이 얼마나 잘못 예측했는지 그 정도를 확인하기 위한 함수이다.손실함수의 함수값을 최소화할 수 있는 가중치와 편향을 찾는 것이 딥러닝 학습의 목표이다. 손실 함수의 종류평균 제곱 오차(Mean Squared Error, MSE)실제값과 예측값 간의 오차의 제곱을 평균하여 계산한다.MSE는 오차가 커질수록 손실 함수값이 빠르게 증가하는 특징이 있다.회귀 문제에서 주로 사용된다.평균 절대 오차(Mean Absolute Error, MAE)오차의 절댓값을 평균하여 계산한다.MSE와는 다르게 손실 함수가 오차와 비례하여 일정하게 커진다.회귀 문제에서 주로 사용된다.
Deep Learning
2024. 6. 23. 22:28