✨ LIFE
-
[Review] 학부 회고 및 석사 합격 후기
학부 마지막 학기인 9학기를 마치고 현재 겨울방학을 보내고 있다. 대학원 합격 소식은 작년 9월에 접했고, 합격하면 언젠가 꼭 합격 후기 글을 써야지- 하다가 이제야 쓰게 됐다. 지원 당시의 절실함과 불안감은 많이 잊혀진 상태지만 (힘든 건 금방 까먹는 편) 정말 후회 없이 열심히 준비했기에 정리해보려고 한다. 학부 생활 나의 학부 생활 타임라인을 간단하게 표현하면 아래와 같다. 1학년 (2019 상반기, 하반기) 이게 전공 수업이라고? 프로그래밍이 뭐지? 웹 개발 동아리 멘티로 활동 2학년 1학기 (2020 상반기) 자료구조의 쓴 맛을 보다, 웹 개발 동아리 멘토로 활동 2학년 2학기 (2020 하반기) 학점 관리 시작, 선배들과 친해지며 자잘한 웹 개발 활동 3학년 1학기 (2021 상반기) 번아웃,..
2024.01.10 16:58 -
[Review] 스타듀밸리 엔딩
10월에 갑자기 스타듀밸리가 하고 싶어져서 오랜만에 노트북에 스팀을 설치했다. 스무살 때 친구들이랑 자주 했었는데, 바빠져서 잘 안 하다가 다시 시간이 나니까 하고 싶어진 모양이다. 한참 친구들이랑 플레이 했을 때는 농장을 꾸미기보다는 치트나 모드 없이 돈 벌고 퀘스트 깨고 광산 가서 광물 캐는 걸 위주로 했었는데, 이번에는 농장을 각 잡고 제대로 꾸미고 싶었다. 그래서 농장을 화려하게 꾸미고 후련하게 게임을 접기로(?) 하고 새 농장을 만들었다. 초반에는 퀘스트 깨는 것도 재밌고 npc들이랑 친해지면서 이벤트 구경하는 게 재밌어서 순수히 플레이를 하기도 했다. 농장 꾸미기를 메인으로 하되 npc 중 한 명이랑 결혼해서 아이까지 입양하고 싶어서 선물 공략 하면서 두루두루 친하게 지냈다. 어느 정도 친밀도..
2023.12.07 11:58 -
[Daily] 대학원 입학 전 할 일
2024년 봄학기 대학원에 합격했다. 올해 상반기에 빈틈없이 바쁜 나날을 보내면서, 입시를 치르고 합격 소식을 듣고 나면 펑펑 놀겠다고 다짐했었다. 그런데 이렇게 지내다가는 한 해가 끝나고 되돌아봤을 때 펑펑 놀았다고 말하기도 애매하고 대학원을 열심히 준비했다고 말하기도 애매할 것 같아서 리스트를 작성하려고 한다. 사실 모든 친구들이 나와 같은 phase에 있지 않아서 같이 시간을 보내기 어려운 것도 사실이다. 혼자서 또는 새로운 사람들을 만나며 할 수 있는 것들을 생각해봐야겠다. 하고 싶은 일 부산국제영화제 다녀오기 ✅ 10월에 다녀옴 유기견/유기묘 봉사 과외하며 여행 비용 모으기 ✅ 컴퓨터 과외 월 28, 수학 과외 월 60 버는 중 과외하며 모은 돈으로 해외여행 (후보: 호주, 싱가포르, 대만, 일..
2023.10.27 23:18 -
[Korea] 2023 BIFF
올해 부산국제영화제를 가기로 결심했다. 스무살이 된 이후로 매년 가고 싶었지만, 대학생한테 10월은 매우 바쁜 달이라 매번 못 가다가 올해 10월은 여유로워서 갈 수 있었다. 원래는 친구들을 모아서 같이 갈 계획이었는데, 확인해보니 온라인 예매 날짜가 얼마 남지 않아서 일정 잡고 숙소 잡고 하면 늦어질 거 같아 혼자 10/6 ~ 10/7 1박 2일로 가기로 했다. 친구들이랑 가면 영화를 보고나서 이런저런 이야기를 나눌 수 있고 사진을 왕창 찍을 수 있어서 좋지만, 또 혼자 가면 영화의 여운을 온전히 느낄 수 있고 멋대로 돌아다닐 수 있기 때문에 좋다. 취소표를 구하느라 영화제 카페를 가입했었는데, 언젠가 영화인들과 같이 보러가도 정말 재밌을 것 같다. 영화제 일정과 상영표는 부국제 사이트에 들어가서 '상..
2023.10.12 01:07
🔥 RUN
-
[Machine Learning] AE, VAE, GAN
참고자료를 기반으로 정리한 글입니다. AE, VAE, GAN) https://velog.io/@idj7183/AE-VAE GAN) https://blog.naver.com/euleekwon/221557899873 AutoEncoder 입력과 출력이 같은 구조로써, 중간에 bottleneck hidden layer을 활용하여 encode, decode를 수행함 높은 차원을 낮은 차원으로 변경하는 과정에서 원본 데이터 중 의미 있는 속성들을 추출하는 dimensionality reduction을 수행함 고차원 데이터를 에러 없이 잘 표현하는 subspace를 manifold라고 하는데, AE는 manifold learning을 통해 학습이 진행됨 Manifold learning의 목적은 차원을 잘 축소하여 ..
2023.11.22 17:07 -
[Machine Learning] CS231N #12 Visualizing and Understanding
Stanford University CS231n, Spring 2017 CS231n: Convolutional Neural Networks for Visual Recognition Spring 2017 http://cs231n.stanford.edu/ www.youtube.com 이번 강의에서는 CNN layer의 데이터를 시각화하는 방법을 다룸 CNN의 첫 번째 layer를 시각화해보자 학습된 Weight를 시각화해보면 필터가 무엇을 인식하고자 하는지 대략 보임 필터의 layer는 점점 더 곱해지고, 나중에는 직관적으로는 이해할 수 없는 필터가 됨 네트워크의 마지막에서 FC layer을 통해 데이터를 4096차원으로 flatten 하고, 그렇게 생성된 feature vector는 nearest neig..
2023.11.12 15:01 -
[Machine Learning] CS231N #11 Detection and Segmentation
Stanford University CS231n, Spring 2017 CS231n: Convolutional Neural Networks for Visual Recognition Spring 2017 http://cs231n.stanford.edu/ www.youtube.com 여태껏 다룬 Image Classification은 이미지를 input으로 받아 label을 output으로 냄 컴퓨터 비전 분야에는 Image Classification 말고도 여러 task가 있음 Semantic Segmentation Semantic Segmentation은 이미지를 input으로 받고, 이미지의 모든 픽셀에 대해 카테고리를 판단하는 것임 하지만 오른쪽 예시처럼 두 cow를 서로 구분하지 않고 단지 cow로..
2023.10.30 02:35 -
[Machine Learning] CS231N #10 Recurrent Neural Networks
Stanford University CS231n, Spring 2017 CS231n: Convolutional Neural Networks for Visual Recognition Spring 2017 http://cs231n.stanford.edu/ www.youtube.com (Vanilla) Neural Network & RNN One-to-One: vanilla neural network 네트워크는 이미지 또는 벡터를 입력받고, 입력 하나가 hidden layer를 거쳐 하나의 출력을 내보냄 하지만 머신러닝 관점에서 모델이 다양한 입력을 처리할 수 있도록 유연해질 필요가 있음 → RNN One-to-Many: 단일 입력 & 가변 출력 (ex. Image Captioning: Image → Sequ..
2023.10.26 15:29 -
[Machine Learning] CS231N #9 CNN Architectures
Stanford University CS231n, Spring 2017 CS231n: Convolutional Neural Networks for Visual Recognition Spring 2017 http://cs231n.stanford.edu/ www.youtube.com LeNet 이미지를 input으로 받아 5x5 필터를 거치고 여러 개의 Conv layer와 Pooling layer을 거침 AlexNet 2012년에 Image Classification Benchmark에서 우승한 모델이며, 최초의 large scale CNN임 Conv - Pool - Normalization 구조가 두 번 반복되고, 그 뒤에 Conv layer와 Pooling layer가 더 붙고 마지막에 FC layer..
2023.10.26 15:23 -
[Machine Learning] CS231N #7 Training Neural Networks 2
Stanford University CS231n, Spring 2017 CS231n: Convolutional Neural Networks for Visual Recognition Spring 2017 http://cs231n.stanford.edu/ www.youtube.com 여러 Optimization 방식들 SGD SGD는 mini-batch에서의 loss를 계산하고 gradient의 반대 방향으로 이동하며 parameter vector를 update 하는 방식임 W1, W2 두 가중치가 있고 이를 최적화하고자 한다고 하자 Poor Conditioning - W1는 수평축으로 weight가 변하고 W2는 수직축으로 weight가 변한다면 loss는 매우 느리게 변함 - Loss function은 ..
2023.10.17 16:52 -
[Machine Learning] CS231N #6 Training Neural Networks 1
Stanford University CS231n, Spring 2017 CS231n: Convolutional Neural Networks for Visual Recognition Spring 2017 http://cs231n.stanford.edu/ www.youtube.com Activation Functions Sigmoid - 값을 입력받아 [0, 1] 사이 값 출력 - 입력값이 크면 출력값은 1에 가깝고, 작으면 0에 가까움 - 입력값이 크거나 작을 때 gradient가 0에 가까워져 back prop 시 0이 계속 전달됨 - 출력값이 zero-centered이 아님 (ex. 입력값이 항상 양수이면 gradient 부호가 계속 같으므로 같은 방향으로만 이동하게 됨) tanh(x) - 값을 입력받..
2023.10.17 00:23 -
[Machine Learning] CS231N #5 Convolutional Neural Networks
Stanford University CS231n, Spring 2017 CS231n: Convolutional Neural Networks for Visual Recognition Spring 2017 http://cs231n.stanford.edu/ www.youtube.com Mark I Perceptron (1957, Frank Rosenblatt) - Perceptron 알고리즘을 구현한 최초의 기계 - Wx + b 와 유사한 함수 사용 - 가중치 W update하는 back propagation과 유사한 update rule 사용 Adaline/Madaline (1960, Widrow and Hoff) - 최초의 multilayer perceptron network - Neural network..
2023.10.16 01:26 -
[Machine Learning] CS231N #4 Backpropagation and Neural Networks
Stanford University CS231n, Spring 2017 CS231n: Convolutional Neural Networks for Visual Recognition Spring 2017 http://cs231n.stanford.edu/ www.youtube.com Backpropagation 편미분을 통해 $dq / dx = 1$, $dq / dy = 1$, $df / dq = z$, $df / dz = q$ 라는 것을 알아낼 수 있음 Backpropagation은 computational graph의 가장 마지막 부분에서 시작해 역순으로 진행 각 값이 최종 f 값에 영향을 미치는 정도를 알기 위해 gradient를 계산 $x$가 $f$ 값에 영향을 미치는 정도를 계산하기 위해 x → q..
2023.10.15 23:49 -
[Machine Learning] CS231N #3 Loss Functions and Optimization
Stanford University CS231n, Spring 2017 CS231n: Convolutional Neural Networks for Visual Recognition Spring 2017 http://cs231n.stanford.edu/ www.youtube.com 위 classifier는 첫 번째 이미지를 dog로, 두 번째 이미지를 automobile로, 세 번째 이미지를 truck으로 추측하고 있음 따라서 좋은 classifier가 아님, 우리가 원하는 것은 실제 정답인 class에 대해 가장 높은 score을 띄도록 하는 것 Weight를 사용하여 score을 구하고, 이를 바탕으로 weight가 얼마나 안 좋은지 측정하는 것이 loss function임 가능한 weight들 중 가..
2023.10.14 00:57