일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
- pytorch
- GoogLeNet
- py4e
- 분포 가설
- 벡터 간 유사도
- Charlse Severance
- Linear algebra
- Long Short Term Memory
- CBOW
- 차원 감소
- skip-gram
- dl
- Python
- 시소러스
- f1-score
- 파이썬
- 선형대수
- deep learning
- 1x1 Convolution
- 상호 정보량
- convolution
- Gated Recurrent Unit
- Multi-Layer Perceptron
- nn.Module
- excel
- pythonForEverybody
- mlops
- 동시발생 행렬
- docker
- object detaction
- Today
- Total
목록dl (2)
Tech & TIL
Linear Neural Networks Linear Neural Network에서는 Data가 주어졌을 때, Data들을 가장 잘 표현할 수 있는 y = wx + b 식을 근사해야 하는 것이다. 모든 점들을 가깝게 지나가는 직선을 구하기 위해서는 기울기와 y절편을 구해야 한다. 먼저, 모든 데이터를 모델 식에 대입한 후 y_hat 벡터를 구한다. y_hat과 실제 output 값인 y의 차를 제곱해서 평균을 낸 값을 Loss로 정의하고 Loss를 줄이기 위해 Backpropagation 기법을 사용해서 Loss를 최소화한다. Loss를 최소화하기 위해서는 Loss를 각각 w와 b에 대해 편미분을 해줘서 편미분된 값을 활용해서 Loss function을 극소값을 찾아 데이터를 가장 잘 표현하는 y = w..
최성준(고려대학교 인공지능학과) 교수님 강의 정리 Table of Contents 딥러닝 소개 딥러닝의 역사: 2012 ~ 2021 딥러닝 소개 딥러닝을 구성하는 중요 요소 4가지 The data that the model can learn from The model how to transform the data The loss function that quantifies the badness of the model The algorithm to adjust the parameters to minimize the loss 딥러닝의 역사 참고자료 Deep Learning's Most Important Ideas - A Brief Historical Review The goal of this post is ..