분류 전체보기 52

2021.08.18 - [Week 3] Day 2.

비교적 시간 여유가 있는 주가 될 줄 알았지만 전혀 아니다. 오히려 시간이 더 부족하다. 과제 양이 많은 것도 있지만 내용도 나에겐 쉽지 않다. 딥러닝 공부를 더 빨리 시작하지 못한 것이 정말 아쉽고 후회된다. 공부한 내용 1. AutoGrad & Optimizer 1.1. torch.nn.Module • Layer의 base model • Input, Output, Forward 정의 • Backward : AutoGrad 통해 자동으로 계산 • Parameter : 학습 대상 1.2. nn.Parameter • Tensor 객체 상속 • Weight값 저장 • required_grad = True : AutoGrad의 대상 1.3. Backward • Parameter들의 미분 수행 • Loss(y_..

BoostCamp 2021.08.19

2021.08.17 - [Week 3] Day 1. 거북이

복습을 통해 몰랐던 것들을 다시 정리하게 되었고 내용의 흐름을 파악할 수 있었다. 하지만 어려운 내용이 계속 쌓이다 보니 아직 갈 길이 멀다. 그래도 조금씩 가까워지는 것 같기도 하다... 공부한 내용 1. Pytorch 1.1. PyTorch 사용 이유 1.2. PyTorch vs. TensorFlow - PyTorch : Dynamic Computation Graph (Define by run) - TensorFlow : Define and run 1.3. PyTorch 장점 - GPU support - Good API and community 1.4. PyTorch = Numpy + AutoGrad + Function - Numpy : numpy와 유사하여 numpy 연산 대부분 사용 가능 - Au..

BoostCamp 2021.08.18

2021.08.13 - [Week 2] Day 5. 나는 멍청이다. 나는 멍청이다. 나는 멍청이다.

Transformer에 이어 Generative model 강의는 정말 환상적이었다. 어려운 내용에 더해 영어가 반이라 강의만 한참을 봤다. 복습 열심히 해야겠다. 휴일이 많아서 정말 다행이다. 공부한 내용 1. Generative Model 1.1. generative model의 의미 1.2. Explicit model and Implicit model의 개념 1.3. Basic Discrete Distributions - Bernoulli distribution - Categorical distribution - Number of cases, Number of parameters - Example of binary pixels 1.4. Structure Through Independence - In..

BoostCamp 2021.08.13

2021.08.12 - [Week 2] Day 4. 좌절기간

CNN, RNN을 배우고 Transformer를 배우면서 안그래도 헷갈려서 어려웠는데 점점 더 어려워진다... 월요일까지 휴일이 있으니 주말동안 기본 내용 열심히 공부해서 DL Basic도 빨리 복습할 수 있도록 해야겠다. 공부한 내용 1. RNN 1) Sequential Model - Naive sequential model - Autoregressive model - Markov model (first-order autoregressive model) - Latent autoregressive model 2) RNN : Recurrent Neural Network - short-term dependencies - long-term dependencies - vanilla RNN 3) LSTM : Lo..

BoostCamp 2021.08.13

2021.08.11 - [Week 2] Day 3. 적응기간(3)

멘토님과 처음 만났다. 인상 좋으시고 친절하게 잘 설명해주신다. 많은 도움을 주실 것 같아 다행이다. 기초가 부족하기 때문에 김성훈 교수님의 강의가 도움이 될 것이라고 하셔서 프리코스 강의 복습 후 모두를 위한 딥러닝까지 복습해야겠다. 다른 분들은 다 많이 아시고 잘 하시는 것 같고 나만 너무 뒤쳐져있다. 갈 길이 너무 멀어 보이지만 최대한 열심히 해야겠다. 공부한 내용 1. CNN - convolution 연산 - CNN 구조 - stride and padding - convolution filter의 dimension - convolution filter 적용 후 dimension과 채널 수 - convolution kernel의 parameter 수 계산 - CNN model의 parameter 수..

BoostCamp 2021.08.11

2021.08.10 - [Week 2] Day 2. 적응기간(2)

강의는 갈수록 어렵고 아직 이해하지 못한 부분은 많고.. 막히는 부분이 계속 늘어나는 것 같다. 최대한 기본을 충실히 하고 계속 복습해서 익숙해져야겠다. 공부한 내용 1. Optimizer 1-1. 최적화에서 사용하는 용어 : Gradient Descent, Generalization, Overfitting, Underfitting, Cross-validation, Bias, Variance, Bootstrapping, Bagging, Boosting 1-2. Optimizer 종류 : Gradient Descent, Momentum, NAG (Nesterov Accelerated Gradient), Adagrad, Adadelta, RMSprop, Adam 1-3. Regularization : Ear..

BoostCamp 2021.08.10

2021.08.09 - [Week 2] Day 1. 적응기간

준비하지 못하고 맞닥뜨린 교육과정에 첫 주부터 애를 먹었다. 남들보다 부족한데 시작까지 늦은 만큼 더 열심히 노력해야겠다. 공부한 내용 1. DL Basic 1, 2 2. Data Visualization 1-1, 1-2, 1-3 3. 과제 : MLP Assignment, Assignment_5(미완) 4. MLP 과제에서 Softmax 함수 구문이 빠져있는 이유 : nn.CrossEntropyLoss()가 cross entropy와 softmax 연산을 합친 클래스이다. https://pytorch.org/docs/stable/generated/torch.nn.CrossEntropyLoss.html 내일 할 일 1. 피어세션에서 공부할 주제 생각해보기 2. 선택과제 ViT, AAE, MDN 살펴보고 피..

BoostCamp 2021.08.09

2021 상반기 종료

시간이 어떻게 지나갔는지도 모르게 금방 지나갔다.. 처음 취업을 준비하고, 학교도 너무 여유 없게 다녀서 충분히 공부하고 경험할 수 있는 기회가 부족했다. 역시나 예상대로 취업의 문턱은 높았다. 현실로 닥치니 더 많은 공부를 할 수 없었던 것이 너무 아쉽다. 그래도 다행인 것은 시작 전에는 막막했던 것이 한 번 경험해보니 갈피가 잡혔다는 것! 어떤 방향으로 준비해야 할 지 감은 잡은 것 같다. AI 면접 빼고.. AI 면접은 정말 이질감이 느껴졌다. 아무튼 부스트캠프 지원을 마지막으로 상반기 지원은 끝~ 코딩 테스트를 급하게 준비하면서 자소서 쓰고 이런 저런 일까지 하다보니 공부한 내용 정리할 시간이 없었다. 너무 방치하면 다시 까먹을테니 부스트캠프 코딩 테스트를 보게 된다면 끝나고 다시 업로드 해야겠다..

끄적끄적 2021.06.13

[백준] 1236. 성 지키기

문제 영식이는 직사각형 모양의 성을 가지고 있다. 성의 1층은 몇 명의 경비원에 의해서 보호되고 있다. 영식이는 모든 행과 모든 열에 한 명 이상의 경비원이 있으면 좋겠다고 생각했다. 성의 크기와 경비원이 어디있는지 주어졌을 때, 몇 명의 경비원을 최소로 추가해야 영식이를 만족시키는지 구하는 프로그램을 작성하시오. 입력 첫째 줄에 성의 세로 크기 N과 가로 크기 M이 주어진다. N과 M은 50보다 작거나 같은 자연수이다. 둘째 줄부터 N개의 줄에는 성의 상태가 주어진다. 성의 상태는 .은 빈칸, X는 경비원이 있는 칸이다. 출력 첫째 줄에 추가해야 하는 경비원의 최솟값을 출력한다. 주어진 상태에서 모든 행과 열에 X가 포함되게 만들기 위한 최소한의 X의 수를 구하는 문제이다. 예제 입출력은 다음과 같다...

[백준] 1668. 트로피 진열

문제 민식이는 “오민식”이라는 팀이름으로 수없이 많은 로봇대회를 우승했다. 따라서 민식이의 집에는 트로피가 많다. 민식이는 트로피를 어떤 선반 위에 올려놨다. 이 선반은 민식이의 방문을 열고 들어가자마자 선반의 왼쪽이 보인다. 다른말로 하자면, 뒤의 트로피가 앞의 트로피에 가려져 있다는 말이다. 안타깝게도, 높이가 큰 트로피가 높이가 작은 트로피의 왼쪽에 있다면, 높이가 작은 트로피는 큰 트로피에 가려서 보이지 않게 된다. 트로피는 자기의 앞에 (보는 사람의 관점에서) 자기보다 높이가 작은 트로피가 있을 때만 보이게 된다. 민식이는 선반을 180도 회전시켜서 트로피가 보이는 개수를 변하게 할 수도 있다. 선반위에 올려져 있는 트로피의 높이가 주어졌을 때, 왼쪽에서 봤을 때 보이는 개수와, 오른쪽에서 봤을..