[CNN]
Day4 에서는 딥러닝의 꽃이라고 말 할 수 있는 CNN을 배웠습니다.
딥러닝에 조금만 관심이 있다면 한번쯤은 들어봤을 법한, 설명이 필요없는 유명한 Neural Network 입니다.
주로 이미지 분석에 사용되는 CNN 을 Convolution Layer, Padding, Pooling 의 순서로 먼저 자세하게 배운 후, CNN 을 기초로 하는 다양한 Architecture 에 대해 알아보았습니다. 또한 Pooling 을 이용해서 이미지 데이터를 DownsSampling 할 뿐 아니라, Deconvolution layer 를 포함한 다양한 UpSampling 기법 또한 배울 수 있었습니다.
워낙에 유명한 모델이니만큼 실습시간에도 다양한 코드를 구현해 보았습니다.
Model 의 Layer 를 Linear Layer 로 구성한 것과 Convolution Layer 로 구성해서 결과를 비교해보고, 효율적인 training 을 위해 적은 양의 이미지 데이터의 개수를 늘리는 Augmentation, Pytorch 에서 제공하는 toy data 뿐만 아니라 실습 TA 가 직접 집에서 찍어온 피규어를 classification 하는 real-data까지 사용해 보는 시간을 가졌습니다!
또한 ILSVRC 에서 우수한 성적을 거둔 VGGnet, Googlenet, Resnet 모델을 Pytorch 에서 import 하지 않고 직접 코드를 처음부터 짜보게 됨으로써 모델의 구조를 자세하게 파악하고 cifar10 data를 완벽하게 classification 하는 실습 또한 진행하였습니다.
Computer Vision 이 각광받고 있는 요즘, CNN 에 대해 확실하게 배워 둔다면 큰 도움이 될 것이라 보여집니다. :)

[CNN]
Day4 에서는 딥러닝의 꽃이라고 말 할 수 있는 CNN을 배웠습니다.
딥러닝에 조금만 관심이 있다면 한번쯤은 들어봤을 법한, 설명이 필요없는 유명한 Neural Network 입니다.
주로 이미지 분석에 사용되는 CNN 을 Convolution Layer, Padding, Pooling 의 순서로 먼저 자세하게 배운 후, CNN 을 기초로 하는 다양한 Architecture 에 대해 알아보았습니다. 또한 Pooling 을 이용해서 이미지 데이터를 DownsSampling 할 뿐 아니라, Deconvolution layer 를 포함한 다양한 UpSampling 기법 또한 배울 수 있었습니다.
워낙에 유명한 모델이니만큼 실습시간에도 다양한 코드를 구현해 보았습니다.
Model 의 Layer 를 Linear Layer 로 구성한 것과 Convolution Layer 로 구성해서 결과를 비교해보고, 효율적인 training 을 위해 적은 양의 이미지 데이터의 개수를 늘리는 Augmentation, Pytorch 에서 제공하는 toy data 뿐만 아니라 실습 TA 가 직접 집에서 찍어온 피규어를 classification 하는 real-data까지 사용해 보는 시간을 가졌습니다!
또한 ILSVRC 에서 우수한 성적을 거둔 VGGnet, Googlenet, Resnet 모델을 Pytorch 에서 import 하지 않고 직접 코드를 처음부터 짜보게 됨으로써 모델의 구조를 자세하게 파악하고 cifar10 data를 완벽하게 classification 하는 실습 또한 진행하였습니다.
Computer Vision 이 각광받고 있는 요즘, CNN 에 대해 확실하게 배워 둔다면 큰 도움이 될 것이라 보여집니다. :)