Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- py4e
- deep learning
- 시소러스
- 상호 정보량
- object detaction
- 선형대수
- 동시발생 행렬
- 차원 감소
- excel
- Multi-Layer Perceptron
- docker
- pytorch
- convolution
- Charlse Severance
- 벡터 간 유사도
- nn.Module
- pythonForEverybody
- Long Short Term Memory
- dl
- f1-score
- mlops
- GoogLeNet
- Gated Recurrent Unit
- 분포 가설
- 1x1 Convolution
- 파이썬
- Python
- CBOW
- Linear algebra
- skip-gram
Archives
- Today
- Total
목록VGGnet (1)
Tech & TIL
05 - 1x1 Convolution의 중요성
1x1 Convolution에 대해 알아보기 전에 1x1 Convolution이 왜 사용되기 시작했는지 이해하기 위해 ILSVRC(ImageNet Large Scale Visual Recognition Challenge)라는 Challenge와 대회에서 수상을 했던 5개 Network 들의 주요 아이디어와 구조에 대해 알아보려고 한다. Network List AlexNet 최초로 Deep Learning을 이용하여 ILSVRC에서 수상 ReLU를 활성화 함수로 사용함. ReLU는 0보다 큰 x값에 대해서는 gradient를 1로 보존되기 때문에 Vanishing Gradient Problem을 해소해주었다. VGGNet 3x3 Convolution을 이용하여 Receptive field는 유지하면서 더 ..
Boostcamp - AI tech/DL Basic
2021. 8. 12. 18:26