CS231n Lecture4 정리

CS231n Lecture4 정리

Lecture 4 : Backpropagation and Neural Networks

Backpropagation이 무엇인지, 그리고 Gate를 어떻게 modularization하는지를 다루며, Neural Network에 대하여 간단하게 설명한다.

Read more
SVM, Softmax No loop 코드 아이디어

SVM, Softmax No loop 코드 아이디어

Assignment1 : svm.ipynb & softmax.ipynb

본 게시물에서는 CS231n의 assignment1 (Spring 2020) 중, svm.ipynb 과제와 softmax.ipynb 과제의 주요 아이디어에 대하여 설명한다. 하이퍼링크를 통해 필자가 작성한 전체 assignment solution을 확인할 수 있으며, loss function과 gradient를 구하는 코드는 linear_svm.pysoftmax.py 에서 확인 가능하다.

Read more
CS231n Lecture3 정리

CS231n Lecture3 정리

Lecture3 : Loss Functions and Optimization

Linear classification의 기본 (Loss function, Optimization)을 다루고, Loss function의 예시로 Multiclass SVMSoftmax, Optimization의 예시로 Stochastic Gradient Descent(SGD) 에 대하여 설명한다.

Read more
CS231n Lecture2 정리

CS231n Lecture2 정리

Lecture2 : Image Classification pipeline

Image Classifier의 기본적인 구조, 그리고 가장 간단한 kNN (K-Nearest Neighbors) 에 대하여 설명한다.

Read more

군대 싸지방에서 블로그 관리하기 (Hexo)

싸지방 컴퓨터는 예전 중고등학교 시절 컴퓨터실의 컴퓨터들과 같이 껐다 키면 모든 파일이 삭제되고 초기화된다. 따라서 Github을 이용한 Hexo 블로그를 이용하는 본인과 같은 경우에는 매번 필요한 프로그램들을 설치하고 설정들을 관리하여야 했다. 이 일련의 과정을 정리해두었다.

Read more
Desilo 인턴 돌아보기 - 04

Desilo 인턴 돌아보기 - 04

04. 두 번째 프로젝트: Google FHE Transpiler Research

첫 번째 프로젝트 (PALISADE-Python) 를 수행한 후, 일주일 안에 다음 프로젝트를 받게 되었다. 이후 2~3주동안 이 프로젝트를 수행하다가 인턴을 마치게 되었다.

Read more