BoostCamp 26

2021.08.17 - [Week 3] Day 1. 거북이

복습을 통해 몰랐던 것들을 다시 정리하게 되었고 내용의 흐름을 파악할 수 있었다. 하지만 어려운 내용이 계속 쌓이다 보니 아직 갈 길이 멀다. 그래도 조금씩 가까워지는 것 같기도 하다... 공부한 내용 1. Pytorch 1.1. PyTorch 사용 이유 1.2. PyTorch vs. TensorFlow - PyTorch : Dynamic Computation Graph (Define by run) - TensorFlow : Define and run 1.3. PyTorch 장점 - GPU support - Good API and community 1.4. PyTorch = Numpy + AutoGrad + Function - Numpy : numpy와 유사하여 numpy 연산 대부분 사용 가능 - Au..

BoostCamp 2021.08.18

2021.08.13 - [Week 2] Day 5. 나는 멍청이다. 나는 멍청이다. 나는 멍청이다.

Transformer에 이어 Generative model 강의는 정말 환상적이었다. 어려운 내용에 더해 영어가 반이라 강의만 한참을 봤다. 복습 열심히 해야겠다. 휴일이 많아서 정말 다행이다. 공부한 내용 1. Generative Model 1.1. generative model의 의미 1.2. Explicit model and Implicit model의 개념 1.3. Basic Discrete Distributions - Bernoulli distribution - Categorical distribution - Number of cases, Number of parameters - Example of binary pixels 1.4. Structure Through Independence - In..

BoostCamp 2021.08.13

2021.08.12 - [Week 2] Day 4. 좌절기간

CNN, RNN을 배우고 Transformer를 배우면서 안그래도 헷갈려서 어려웠는데 점점 더 어려워진다... 월요일까지 휴일이 있으니 주말동안 기본 내용 열심히 공부해서 DL Basic도 빨리 복습할 수 있도록 해야겠다. 공부한 내용 1. RNN 1) Sequential Model - Naive sequential model - Autoregressive model - Markov model (first-order autoregressive model) - Latent autoregressive model 2) RNN : Recurrent Neural Network - short-term dependencies - long-term dependencies - vanilla RNN 3) LSTM : Lo..

BoostCamp 2021.08.13

2021.08.11 - [Week 2] Day 3. 적응기간(3)

멘토님과 처음 만났다. 인상 좋으시고 친절하게 잘 설명해주신다. 많은 도움을 주실 것 같아 다행이다. 기초가 부족하기 때문에 김성훈 교수님의 강의가 도움이 될 것이라고 하셔서 프리코스 강의 복습 후 모두를 위한 딥러닝까지 복습해야겠다. 다른 분들은 다 많이 아시고 잘 하시는 것 같고 나만 너무 뒤쳐져있다. 갈 길이 너무 멀어 보이지만 최대한 열심히 해야겠다. 공부한 내용 1. CNN - convolution 연산 - CNN 구조 - stride and padding - convolution filter의 dimension - convolution filter 적용 후 dimension과 채널 수 - convolution kernel의 parameter 수 계산 - CNN model의 parameter 수..

BoostCamp 2021.08.11

2021.08.10 - [Week 2] Day 2. 적응기간(2)

강의는 갈수록 어렵고 아직 이해하지 못한 부분은 많고.. 막히는 부분이 계속 늘어나는 것 같다. 최대한 기본을 충실히 하고 계속 복습해서 익숙해져야겠다. 공부한 내용 1. Optimizer 1-1. 최적화에서 사용하는 용어 : Gradient Descent, Generalization, Overfitting, Underfitting, Cross-validation, Bias, Variance, Bootstrapping, Bagging, Boosting 1-2. Optimizer 종류 : Gradient Descent, Momentum, NAG (Nesterov Accelerated Gradient), Adagrad, Adadelta, RMSprop, Adam 1-3. Regularization : Ear..

BoostCamp 2021.08.10

2021.08.09 - [Week 2] Day 1. 적응기간

준비하지 못하고 맞닥뜨린 교육과정에 첫 주부터 애를 먹었다. 남들보다 부족한데 시작까지 늦은 만큼 더 열심히 노력해야겠다. 공부한 내용 1. DL Basic 1, 2 2. Data Visualization 1-1, 1-2, 1-3 3. 과제 : MLP Assignment, Assignment_5(미완) 4. MLP 과제에서 Softmax 함수 구문이 빠져있는 이유 : nn.CrossEntropyLoss()가 cross entropy와 softmax 연산을 합친 클래스이다. https://pytorch.org/docs/stable/generated/torch.nn.CrossEntropyLoss.html 내일 할 일 1. 피어세션에서 공부할 주제 생각해보기 2. 선택과제 ViT, AAE, MDN 살펴보고 피..

BoostCamp 2021.08.09