Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- mlops
- excel
- 파이썬
- Linear algebra
- docker
- skip-gram
- pythonForEverybody
- deep learning
- 상호 정보량
- object detaction
- 1x1 Convolution
- Multi-Layer Perceptron
- Python
- Charlse Severance
- 분포 가설
- Long Short Term Memory
- py4e
- dl
- nn.Module
- pytorch
- convolution
- f1-score
- 동시발생 행렬
- 벡터 간 유사도
- GoogLeNet
- 선형대수
- CBOW
- 시소러스
- 차원 감소
- Gated Recurrent Unit
Archives
- Today
- Total
Tech & TIL
01 - PyTorch 소개 본문
딥러닝을 할 때, 코드는 처음부터 다 짜야할까?
죽을수도있다..
남이 만든걸 쓴다. 자료 많고 관리 잘 되고 표준이다.
딥러닝 프레임워크 리더는 PyTorch(facebook)와 TensorFlow(google)
PyTorch와 TensorFlow의 가장 큰 차이는 Computational graph가 Static한지 Dynamic한지가 있다.
Computational Graph란 연산의 과정을 그래프로 표현한 것.
TensorFlow: Define and Run, 그래프를 먼저 정의하고 -> 실행시점에 데이터 feed, 실제 제품 생산 production 영역에선 장점이 있다.
PyTorch: Define by Run, 실행하면서 그래프를 생성하는 방식, 디버깅할 때 이점을 가짐. 최근 파이토치 사용량이 높아지고 있다.
PyTorch를 3가지로 표현하면
- Numpy: numpy구조의 tensor 객체 사용
- AutoGrad: 자동미분을 지원하여 DL 연산을 지원
- Function: 다양한 형태의 DL을 지원하는 함수와 모델을 지원
'Boostcamp - AI tech > PyTorch' 카테고리의 다른 글
[PyTorch] torch.nn.Module (0) | 2021.08.21 |
---|---|
torch.tensor와 torch.Tensor 차이 (0) | 2021.08.20 |
02 - 개발자 공식문서 활용하기 (1) | 2021.08.20 |
Comments