일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
- mlops
- docker
- 시소러스
- dl
- py4e
- Gated Recurrent Unit
- pythonForEverybody
- GoogLeNet
- deep learning
- Multi-Layer Perceptron
- Charlse Severance
- f1-score
- 동시발생 행렬
- Long Short Term Memory
- nn.Module
- 파이썬
- 1x1 Convolution
- object detaction
- 상호 정보량
- Linear algebra
- Python
- excel
- convolution
- 분포 가설
- pytorch
- skip-gram
- 차원 감소
- 선형대수
- 벡터 간 유사도
- CBOW
- Today
- Total
목록deep learning (3)
Tech & TIL
AI를 공부해본 사람이라면 CNN이란 말을 많이 들어봤을 것이다. CNN이란 Convolutional Neural Network의 약자이고 이미지에 관련된 모델에 최적화된 네트워크이다. 본 글에서는 CNN에 사용되는 연산인 Convolution에 대해 다뤄보자. 위 그림은 크게 2 부분으로 나눌 수 있다. Convolution and Pooling layers: feature extraction Fully connected layer: decision making(e.g. classification) Convolution (합성곱) 필터를 이미지에 씌워서 모든 값을 곱하고, 더해서 하나의 아웃풋이 나온다. 필터에 값을 다르게 주면 다른 feature(특징들)를 추출할 수 있다. Padding은 왜 사용할..
Linear Neural Networks Linear Neural Network에서는 Data가 주어졌을 때, Data들을 가장 잘 표현할 수 있는 y = wx + b 식을 근사해야 하는 것이다. 모든 점들을 가깝게 지나가는 직선을 구하기 위해서는 기울기와 y절편을 구해야 한다. 먼저, 모든 데이터를 모델 식에 대입한 후 y_hat 벡터를 구한다. y_hat과 실제 output 값인 y의 차를 제곱해서 평균을 낸 값을 Loss로 정의하고 Loss를 줄이기 위해 Backpropagation 기법을 사용해서 Loss를 최소화한다. Loss를 최소화하기 위해서는 Loss를 각각 w와 b에 대해 편미분을 해줘서 편미분된 값을 활용해서 Loss function을 극소값을 찾아 데이터를 가장 잘 표현하는 y = w..
최성준(고려대학교 인공지능학과) 교수님 강의 정리 Table of Contents 딥러닝 소개 딥러닝의 역사: 2012 ~ 2021 딥러닝 소개 딥러닝을 구성하는 중요 요소 4가지 The data that the model can learn from The model how to transform the data The loss function that quantifies the badness of the model The algorithm to adjust the parameters to minimize the loss 딥러닝의 역사 참고자료 Deep Learning's Most Important Ideas - A Brief Historical Review The goal of this post is ..