Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- 분포 가설
- mlops
- dl
- pytorch
- 동시발생 행렬
- f1-score
- 시소러스
- 상호 정보량
- excel
- Gated Recurrent Unit
- Long Short Term Memory
- docker
- nn.Module
- Multi-Layer Perceptron
- 벡터 간 유사도
- 선형대수
- skip-gram
- py4e
- convolution
- object detaction
- pythonForEverybody
- 1x1 Convolution
- 파이썬
- 차원 감소
- Python
- GoogLeNet
- Charlse Severance
- CBOW
- deep learning
- Linear algebra
Archives
- Today
- Total
목록alexnet (1)
Tech & TIL
05 - 1x1 Convolution의 중요성
1x1 Convolution에 대해 알아보기 전에 1x1 Convolution이 왜 사용되기 시작했는지 이해하기 위해 ILSVRC(ImageNet Large Scale Visual Recognition Challenge)라는 Challenge와 대회에서 수상을 했던 5개 Network 들의 주요 아이디어와 구조에 대해 알아보려고 한다. Network List AlexNet 최초로 Deep Learning을 이용하여 ILSVRC에서 수상 ReLU를 활성화 함수로 사용함. ReLU는 0보다 큰 x값에 대해서는 gradient를 1로 보존되기 때문에 Vanishing Gradient Problem을 해소해주었다. VGGNet 3x3 Convolution을 이용하여 Receptive field는 유지하면서 더 ..
Boostcamp - AI tech/DL Basic
2021. 8. 12. 18:26