Notice
Recent Posts
Recent Comments
Link
250x250
반응형
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | |||
| 5 | 6 | 7 | 8 | 9 | 10 | 11 |
| 12 | 13 | 14 | 15 | 16 | 17 | 18 |
| 19 | 20 | 21 | 22 | 23 | 24 | 25 |
| 26 | 27 | 28 | 29 | 30 |
Tags
- Google ML Bootcamp
- 자격증
- 데이터분석준전문가
- 시각화
- pytorch
- ADsP
- IRIS
- 태블로
- Python
- 머신러닝
- 통계
- 딥러닝
- SQL
- Deep Learning Specialization
- ML
- 회귀분석
- SQLD
- matplotlib
- sklearn
- scikit learn
- 코딩테스트
- 데이터분석
- 데이터 전처리
- tableau
- 이것이 코딩테스트다
- pandas
- 파이썬
- 데이터 분석
- 이코테
- r
Archives
- Today
- Total
함께하는 데이터 분석
[Neural Networks and Deep Learning] 3주차 본문
Neural Network Representation

Computing a Neural Network's Output



Vectorizing across multiple examples

Justification for vectorized implementation

Activation functions

Why do you need Non-Linear Activation Functions?

Derivatives of Activation Functions

Gradient descent for neural networks

Formulas for computing derivatives

What happens if you initialize weights to zero?

Random initialization

728x90
반응형
'부트캠프 > Google ML Bootcamp' 카테고리의 다른 글
| [Neural Networks and Deep Learning] 4주차 (0) | 2023.09.05 |
|---|---|
| [Neural Networks and Deep Learning] 2주차 (0) | 2023.09.01 |
| [Neural Networks and Deep Learning] 1주차 (0) | 2023.08.30 |
| [Google ML Bootcamp] 구글 머신러닝 부트캠프 합격후기 (0) | 2023.08.30 |