Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- pythonForEverybody
- 동시발생 행렬
- 선형대수
- Long Short Term Memory
- 시소러스
- 차원 감소
- Linear algebra
- f1-score
- 상호 정보량
- pytorch
- CBOW
- Charlse Severance
- skip-gram
- excel
- object detaction
- convolution
- 분포 가설
- Multi-Layer Perceptron
- dl
- GoogLeNet
- 1x1 Convolution
- nn.Module
- 벡터 간 유사도
- 파이썬
- py4e
- mlops
- Python
- docker
- Gated Recurrent Unit
- deep learning
Archives
- Today
- Total
목록gradient descent (1)
Tech & TIL
03-Gradient Descent (Mild ver.)
Boostcamp - AI Tech 부스트캠프 개발자의 지속 가능한 성장을 위한 학습 커뮤니티 boostcamp.connect.or.kr Table of Contents 미분이란? 미분은 어디에 쓸까? 변수가 벡터라면? 미분이란? 미분(differentiation)은 변수의 움직임에 따른 함수값의 변화를 측정하기 위한 도구로 최적화에서 제일 많이 사용되는 기법이다. 미분은 함수 f 의 주어진 점 (x, f(x)) 에서의 접선의 기울기 를 구한다. 미분이 가능하려면 연속함수 모양이어야 한다. 미분은 어디에 쓸까? 한 점에서 접선의 기울기를 알면 어느 방향으로 점을 움직여야 함수값이 증가 또는 감소 하는지 알 수 있다. 증가시키고 싶다면 미분값을 더하고 감소시키고 싶으면 미분값을 빼면 된다. 미분값을 더하면..
Boostcamp - AI tech/Math for AI
2021. 8. 6. 19:44