일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
- 데이터분석
- r
- SQL
- 이것이 코딩테스트다
- 회귀분석
- scikit learn
- 이코테
- SQLD
- Python
- ML
- pytorch
- 머신러닝
- Deep Learning Specialization
- 딥러닝
- 데이터 전처리
- ADsP
- tableau
- 파이썬
- IRIS
- 시각화
- matplotlib
- 코딩테스트
- 태블로
- 데이터 분석
- Google ML Bootcamp
- 자격증
- 데이터분석준전문가
- sklearn
- 통계
- pandas
- Today
- Total
목록부트캠프 (5)
함께하는 데이터 분석
![](http://i1.daumcdn.net/thumb/C150x150.fwebp.q85/?fname=https://blog.kakaocdn.net/dn/cL5RcH/btstbbsiDkp/ha1DbBz7Xf1D04HRkcc7oK/img.png)
Deep neural network notation Forward propagation in a deep network Parameters W[l] and b[l] Vectorized implementation Intuition about deep representation Forward and Backward fuctions Forward propagation for layer l Backward propagation for layer l What are hyperparameters?
![](http://i1.daumcdn.net/thumb/C150x150.fwebp.q85/?fname=https://blog.kakaocdn.net/dn/EudlR/btssUaOFtD0/YSGx3GALMIXkMqKpQbk2bk/img.png)
Neural Network Representation Computing a Neural Network's Output Vectorizing across multiple examples Justification for vectorized implementation Activation functions Why do you need Non-Linear Activation Functions? Derivatives of Activation Functions Gradient descent for neural networks Formulas for computing derivatives What happens if you initialize weights to zero? Random initialization
![](http://i1.daumcdn.net/thumb/C150x150.fwebp.q85/?fname=https://blog.kakaocdn.net/dn/q9Gtf/btssT56ESyf/p7bGUIUrhGLU5wPY5JN2Rk/img.png)
Linear Regression Logistic Regression Logistic Regression cost function Gradient Descent Logistic Regression Gradient Descent Logistic Regression Gradient Descent on m examples Vectorization import numpy as np import time a = np.random.rand(1000000) b = np.random.rand(1000000) tic = time.time() c = 0 for i in range(1000000) : c += a[i] * b[i] toc = time.time() print('for loop :' + str(1000 * (to..
![](http://i1.daumcdn.net/thumb/C150x150.fwebp.q85/?fname=https://blog.kakaocdn.net/dn/WFCq3/btssAJRx8iz/zMjas8KgiQsif2fItRf9K0/img.png)
Supervised Learning with Neural Networks Neural Network examples Scaled drives deep learning progress
![](http://i1.daumcdn.net/thumb/C150x150.fwebp.q85/?fname=https://blog.kakaocdn.net/dn/plllD/btssAJ41Y9n/nWicxiOOqu2Tt2P7ntxFi0/img.png)
이번 2023 구글 머신러닝 부트캠프에 붙어서 부트캠퍼로 참여하게 되었습니다 지원하게 된 계기는 취업을 준비하면서 공부했던 내용을 정리하면서 복습하고 싶었는데 딱 맞을 것 같아서 지원했습니다 프로그램 구성 프로그램 일정 참가 회사 합격 후기 지원하게 된 가장 큰 이유가 Andrew Ng 교수의 Deep Learning Specialization 수업을 듣고 정리하는 것이기에 강의를 듣고 공부한 부분을 시간 관계상 설명까지 추가하여 올리진 못하더라도 나름의 정리를 해서 올릴 예정입니다