Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- Deep Learning Specialization
- SQL
- scikit learn
- 데이터 분석
- 자격증
- 시각화
- matplotlib
- sklearn
- pytorch
- 회귀분석
- 데이터분석
- 코딩테스트
- 딥러닝
- Google ML Bootcamp
- 태블로
- Python
- SQLD
- 머신러닝
- 이것이 코딩테스트다
- ADsP
- 통계
- 이코테
- r
- tableau
- IRIS
- ML
- 데이터 전처리
- 데이터분석준전문가
- 파이썬
- pandas
Archives
- Today
- Total
목록skip-gram (1)
함께하는 데이터 분석

순환 신경망의 한계 및 개선 방안 RNN은 어느 정도 이상부터는 결과가 한계에 부딪힘 이유는 타임 시퀀스가 늘어나며 역전파 시 하이퍼볼릭 탄젠트 함수의 미분 값이 0 ~ 1 사이의 값이 나오고 여러 번 곱해져 기울기 값이 역전파될 때 타임 시퀀스가 길어질수록 모델이 제대로 학습을 하지 못하는 기울기 소실(vanishing gradient)이라는 현상이 일어남 순환 신경망에서는 활성화 함수를 바꾸는 경우도 있지만 개선 모델인 LSTM과 GRU를 사용 LSTM(long short-term memory) 기존의 순환 신경망 모델에 장기기억을 담당하는 부분을 추가한 것 기존에는 은닉 상태만 있었다면 셀 상태라는 이름을 가지는 전달 부분을 추가 GRU(gated recurrent unit) LSTM보다 간단한 구..
학회 세션/파인드 알파
2022. 9. 21. 20:35