복습을 통해 몰랐던 것들을 다시 정리하게 되었고 내용의 흐름을 파악할 수 있었다.
하지만 어려운 내용이 계속 쌓이다 보니 아직 갈 길이 멀다.
그래도 조금씩 가까워지는 것 같기도 하다...
공부한 내용
1. Pytorch
1.1. PyTorch 사용 이유
1.2. PyTorch vs. TensorFlow
- PyTorch : Dynamic Computation Graph (Define by run)
- TensorFlow : Define and run
1.3. PyTorch 장점
- GPU support
- Good API and community
1.4. PyTorch = Numpy + AutoGrad + Function
- Numpy : numpy와 유사하여 numpy 연산 대부분 사용 가능
- Autograd : 자동미분 지원
- Function : 다양한 DL/ML 함수, 모델 지원
2. PyTorch Operations
2.1. Numpy vs. Tensor
- Numpy의 ndarray와 tensor 거의 동일(형태, 사용법, 연산, 타입 등)
- tensor는 list나 ndarrray 이용하여 생성
- tensor는 gpu에 올려서 사용 (device)
2.2. Tensor handling
- view : tensor의 shape 변환
- squeeze : 차원 압축
- unsqueeze : 차원 추가
2.3. view vs. reshape
- contiguity 보장의 차이
- view는 원래 데이터의 주소 그대로 사용
- reshape은 shape 깨지는 순간 원래 데이터 copy
2.4. dot vs. mm vs. matmul
- dot : 내적 (dot product)
※ broadcasting : ??
- mm : matrix multiplication, broadcasting 발생 x
- matmul : broadcasting 발생
2.5. ML/DL의 다양한 formula 연산
2.6. AutoGrad
- 자동 미분 지원
3. PyTorch 프로젝트 구조
4. 피어세션
https://bagineer.notion.site/level1-22-Day-11-8-17-305ec2997be04f81b0644bb36868da32
'BoostCamp' 카테고리의 다른 글
2021.08.19 - [Week 3] Day 3. 긴 밤 지새우고 (0) | 2021.08.20 |
---|---|
2021.08.18 - [Week 3] Day 2. (0) | 2021.08.19 |
2021.08.13 - [Week 2] Day 5. 나는 멍청이다. 나는 멍청이다. 나는 멍청이다. (0) | 2021.08.13 |
2021.08.12 - [Week 2] Day 4. 좌절기간 (0) | 2021.08.13 |
2021.08.11 - [Week 2] Day 3. 적응기간(3) (0) | 2021.08.11 |