Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- 1x1 Convolution
- pythonForEverybody
- Linear algebra
- excel
- convolution
- mlops
- Charlse Severance
- dl
- f1-score
- Long Short Term Memory
- Python
- pytorch
- 차원 감소
- deep learning
- docker
- 선형대수
- 분포 가설
- skip-gram
- GoogLeNet
- 시소러스
- Gated Recurrent Unit
- 상호 정보량
- object detaction
- 벡터 간 유사도
- CBOW
- Multi-Layer Perceptron
- 동시발생 행렬
- nn.Module
- py4e
- 파이썬
Archives
- Today
- Total
목록1x1 Convolution (1)
Tech & TIL
05 - 1x1 Convolution의 중요성
1x1 Convolution에 대해 알아보기 전에 1x1 Convolution이 왜 사용되기 시작했는지 이해하기 위해 ILSVRC(ImageNet Large Scale Visual Recognition Challenge)라는 Challenge와 대회에서 수상을 했던 5개 Network 들의 주요 아이디어와 구조에 대해 알아보려고 한다. Network List AlexNet 최초로 Deep Learning을 이용하여 ILSVRC에서 수상 ReLU를 활성화 함수로 사용함. ReLU는 0보다 큰 x값에 대해서는 gradient를 1로 보존되기 때문에 Vanishing Gradient Problem을 해소해주었다. VGGNet 3x3 Convolution을 이용하여 Receptive field는 유지하면서 더 ..
Boostcamp - AI tech/DL Basic
2021. 8. 12. 18:26