CS231n Lecture4 정리
Lecture 4 : Backpropagation and Neural Networks
Backpropagation이 무엇인지, 그리고 Gate를 어떻게 modularization하는지를 다루며, Neural Network에 대하여 간단하게 설명한다.
Backpropagation이 무엇인지, 그리고 Gate를 어떻게 modularization하는지를 다루며, Neural Network에 대하여 간단하게 설명한다.
본 게시물에서는 CS231n의 assignment1 (Spring 2020) 중, svm.ipynb 과제와 softmax.ipynb 과제의 주요 아이디어에 대하여 설명한다. 하이퍼링크를 통해 필자가 작성한 전체 assignment solution을 확인할 수 있으며, loss function과 gradient를 구하는 코드는 linear_svm.py 와 softmax.py 에서 확인 가능하다.
Linear classification의 기본 (Loss function, Optimization)을 다루고, Loss function의 예시로 Multiclass SVM과 Softmax, Optimization의 예시로 Stochastic Gradient Descent(SGD) 에 대하여 설명한다.
Image Classifier의 기본적인 구조, 그리고 가장 간단한 kNN (K-Nearest Neighbors) 에 대하여 설명한다.
싸지방 컴퓨터는 예전 중고등학교 시절 컴퓨터실의 컴퓨터들과 같이 껐다 키면 모든 파일이 삭제되고 초기화된다. 따라서 Github을 이용한 Hexo 블로그를 이용하는 본인과 같은 경우에는 매번 필요한 프로그램들을 설치하고 설정들을 관리하여야 했다. 이 일련의 과정을 정리해두었다.
첫 번째 프로젝트 (PALISADE-Python) 를 수행한 후, 일주일 안에 다음 프로젝트를 받게 되었다. 이후 2~3주동안 이 프로젝트를 수행하다가 인턴을 마치게 되었다.