Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- skip-gram
- mlops
- Gated Recurrent Unit
- dl
- pytorch
- 선형대수
- object detaction
- 상호 정보량
- pythonForEverybody
- Charlse Severance
- Multi-Layer Perceptron
- deep learning
- 동시발생 행렬
- 파이썬
- excel
- 분포 가설
- 차원 감소
- docker
- nn.Module
- py4e
- GoogLeNet
- f1-score
- Linear algebra
- Long Short Term Memory
- Python
- 시소러스
- 1x1 Convolution
- convolution
- 벡터 간 유사도
- CBOW
Archives
- Today
- Total
Tech & TIL
01 - PyTorch 소개 본문
딥러닝을 할 때, 코드는 처음부터 다 짜야할까?
죽을수도있다..
남이 만든걸 쓴다. 자료 많고 관리 잘 되고 표준이다.
딥러닝 프레임워크 리더는 PyTorch(facebook)와 TensorFlow(google)
PyTorch와 TensorFlow의 가장 큰 차이는 Computational graph가 Static한지 Dynamic한지가 있다.
Computational Graph란 연산의 과정을 그래프로 표현한 것.
TensorFlow: Define and Run, 그래프를 먼저 정의하고 -> 실행시점에 데이터 feed, 실제 제품 생산 production 영역에선 장점이 있다.
PyTorch: Define by Run, 실행하면서 그래프를 생성하는 방식, 디버깅할 때 이점을 가짐. 최근 파이토치 사용량이 높아지고 있다.
PyTorch를 3가지로 표현하면
- Numpy: numpy구조의 tensor 객체 사용
- AutoGrad: 자동미분을 지원하여 DL 연산을 지원
- Function: 다양한 형태의 DL을 지원하는 함수와 모델을 지원
'Boostcamp - AI tech > PyTorch' 카테고리의 다른 글
[PyTorch] torch.nn.Module (0) | 2021.08.21 |
---|---|
torch.tensor와 torch.Tensor 차이 (0) | 2021.08.20 |
02 - 개발자 공식문서 활용하기 (1) | 2021.08.20 |
Comments