Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 범용 근사 정리
- bfs
- 베르누이 분포
- feedforward neural network
- 과대적합
- dijkstra
- c++
- union-find
- 이진분류
- 계단 함수
- dl
- 베버의 법칙
- 순방향 신경망
- OpenGL
- 알고리즘
- 손실 함수
- deep learning
- 백준
- DP
- Perceptron
- 경사하강법
- BOJ
- 딥러닝
- 단층 퍼셉트론
- 이진 분류
- 3d
- 다익스트라
- 기울기 소실
- vanishing gradient
- 동적계획법
Archives
- Today
- Total
목록leaky ReLU (1)
Hello COCOBALL!

기울기 소실딥러닝에서 은닉층을 많이 추가할수록 학습이 더 잘 될 것 같지만, 실제로는 기울기 소실 문제때문에 그렇지 않다. 기울기 소실은 역전파(backpropagation) 과정에서 발생하는 문제로, 출력층에서부터 멀어지면 멀어질수록 기울기(gradient)가 점점 작아져서 결국 거의 0에 가까워지는 현상을 의미한다. 이렇게 되면 가중치가 업데이트 되지 않아 학습이 매우 느리거나 멈추게 된다. 기울기 소실 문제의 원인기울기 소실 문제는 주로 다음과 같은 이유로 발생한다. 1. 활성화 함수Sigmoid나 tanh와 같은 활성화 함수는 입력 값이 매우 크거나 작을 때 출력의 변화가 매우 작다. 예를 들어 Sigmoid의 도함수는 아래와 같다.여기서 σ(x)가 0 또는 1에 가까워지면 도함수가 0에 가까워진..
Deep Learning
2024. 6. 23. 21:20