Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- GoogLeNet
- dl
- Charlse Severance
- 동시발생 행렬
- pytorch
- 벡터 간 유사도
- excel
- 1x1 Convolution
- py4e
- CBOW
- pythonForEverybody
- object detaction
- docker
- mlops
- 차원 감소
- 분포 가설
- deep learning
- Gated Recurrent Unit
- f1-score
- convolution
- 시소러스
- Long Short Term Memory
- nn.Module
- skip-gram
- Python
- Linear algebra
- 상호 정보량
- 파이썬
- 선형대수
- Multi-Layer Perceptron
Archives
- Today
- Total
목록optimization (1)
Tech & TIL
03 - Optimization
딥러닝에서 사용되는 Optimization(최적화)은 왜 사용할까. 이번 강의를 듣기 전에는 Loss와 Optimization의 개념 조차 제대로 알지 못했다는 것을 알게 되었다. 기존에는 backpropagation을 하면서 어찌어찌 weight와 bias가 갱신되는구나! 정도로 알고 있었다. 지금부터 차근차근 최적화에 대해 알아보자. Optimization의 중요한 컨셉 Generalization Under Fitting / Over Fitting Cross-validation Bias-Variance tradeoff Bootstrapping Bagging and Boosting 기본적인 용어 설명을 먼저 하고 해결 방안을 제시하려고 한다. Generalization 일반적으로 학습을 시키게 되면, ..
Boostcamp - AI tech/DL Basic
2021. 8. 10. 13:50