Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- pythonForEverybody
- 상호 정보량
- GoogLeNet
- dl
- object detaction
- py4e
- f1-score
- Linear algebra
- 벡터 간 유사도
- 1x1 Convolution
- skip-gram
- mlops
- 파이썬
- docker
- 선형대수
- Long Short Term Memory
- 동시발생 행렬
- deep learning
- Multi-Layer Perceptron
- 차원 감소
- Gated Recurrent Unit
- CBOW
- 시소러스
- Charlse Severance
- Python
- pytorch
- convolution
- nn.Module
- excel
- 분포 가설
Archives
- Today
- Total
목록1x1 Convolution (1)
Tech & TIL
05 - 1x1 Convolution의 중요성
1x1 Convolution에 대해 알아보기 전에 1x1 Convolution이 왜 사용되기 시작했는지 이해하기 위해 ILSVRC(ImageNet Large Scale Visual Recognition Challenge)라는 Challenge와 대회에서 수상을 했던 5개 Network 들의 주요 아이디어와 구조에 대해 알아보려고 한다. Network List AlexNet 최초로 Deep Learning을 이용하여 ILSVRC에서 수상 ReLU를 활성화 함수로 사용함. ReLU는 0보다 큰 x값에 대해서는 gradient를 1로 보존되기 때문에 Vanishing Gradient Problem을 해소해주었다. VGGNet 3x3 Convolution을 이용하여 Receptive field는 유지하면서 더 ..
Boostcamp - AI tech/DL Basic
2021. 8. 12. 18:26