CS231n Lecture7 정리

CS231n Lecture7 정리

Lecture 7 : Training Neural Networks, Part II

Neural Network를 train할 때 필요한 Optimization 및 Regularization 기법들, 그리고 Model Ensemble과 Transfer Learning에 대하여 소개한다.

Read more
CS231n Lecture6 정리

CS231n Lecture6 정리

Lecture 6 : Training Neural Networks, Part I

Neural Network를 Train 할 수 있는 다양한 방법들에 대하여 설명한다. Activation Functions, Weight Initialization, Batch Normalization, Babysitting the Learning Process, Hyperparameter Optimization 를 다룬다.

Read more
CS231n Lecture5 정리

CS231n Lecture5 정리

Lecture 5 : Convolutional Neural Networks

CNN의 기본 원리와 용어 설명에 대하여 설명한다. Channel(Depth), Filter, Stride, Padding, Pooling Layer 를 다룬다.

Read more
Batch Normalization에서의 Backpropagation

Batch Normalization에서의 Backpropagation

CS231n assignment2의 BatchNormalization.ipynb 의 풀이 과정에서 Batch Normalization Backward flow 가 요구되는데, 이를 해결한 두 가지 방법을 간단히 소개하고자 한다. 각각의 아이디어가 batchnorm_backwardbatchnorm_backward_alt 에 사용되었다.

Read more
ReLU, Affine 계층에서의 Backpropagation

ReLU, Affine 계층에서의 Backpropagation

CS231n assignment1 two_layer_net.ipynb 의 구조는 input - fully connected layer - ReLU - fully connected layer - softmax 로 이루어진다. (neural_net.py 참고) 등장하는 ReLU 계층, Affine 계층을 Lecture 4에 소개했듯 modularization 하여 정리해 보려고 한다.

Read more
Backpropagation for a Linear Layer