CNN (합성 신경망) 모델

category AI 인공지능/AI Vision 2021. 1. 24. 21:41
728x90
반응형

CNN 모델에 대해서는 블로그블로그2 를 참조하였음을 명시한다.

LeNet

  • 20여년 전에 제안된 첫 CNN

  • LeNet은 손글씨 숫자를 인식하는 네트워크로 1998년에 제안

  • 현재 CNN 모델과 달리 활성화 함수로 시그모이드를 사용하고 서브 샘플링을 하여 중간 크기가 작아짐

AlexNet

  • 2012년에 발표되어 딥러닝 선도적인 역할을 함

  • 활성화 함수로 ReLU를 사용
  • LRN이라는 국소적 정규화를 실시하는 계층을 이용함
  • 드롭아웃을 사용

VGGNet

  • 구성이 간단하고 합성곱 계층과 풀링 계층으로 구성되는 가장 기본적인 CNN

  • 다만 비중있는 층(합성곱 계층, 안전 연결 계층) 을 모두 16개(혹은 19개로) 심화한게 특징

  • 층의 깊이에 따라서 VGG16, VGG19로 구분

  • 3 x 3 작은 필터를 사용한 합성곱 계층을 연속으로 거침

  • 합성곱 계층을 2~4회 연속으로 풀링 계층을 두어 크기를 절반으로 줄이는 처리를 반복

GoogleNet

  • 구조가 복잡하여 널리 사용되지 않았지만 아키텍처 면에서 주목

  • 세로 방향 (깊이)뿐만 아니라 가로 방향(폭)도 깊다는 점이 특징

  • 1 x 1의 합성곱 연산 (인셉션 구조)은 채널 쪽으로 크기를 줄이는 것으로 매개변수 제거와 고속 처리에 기여함

  • 예를 들어 100×100×60이고, 1×1 conv filter를 20개 사용한다면 데이터의 차원 수는 100×100×20으로 줄어드는 효과를 가져옴

  • 인셉션 구조는 크기가 다른 필터(와 풀링)을 여러 개 적용하여 그 결과를 결합

  • 인셉션 구조를 하나의 빌딩 블록(구성요소)으로 사용하는 것이 GoogleNet의 특징

ResNet

  • 마이크로 소프트의 팀이 개발한 네트워크

  • 역전파 문제를 해결하기 위하여 보다 더 층을 깊게 쌓기 위해 스킵 연결을 도입

  • 스킵 연결이란 입력 데이터를 합성곱 계층을 건너뛰어 출력에 바로 더하는 구조를 일컬음

  • 이 단축 경로가 없었다면 두 합성곱 계층의 풀력이 F(x)가 되나, 스킵연결로 인해 F(x)+x가 되는 게 핵심

  • 스킵 연결은 층이 깊어져도 학습이 효율적으로 할 수 있도록 해주는데, 이는 역전파 때 스킵 연결이 신호 감쇠를 막아줌

  • VGG 신경망을 기반으로 스킵연결을 도입하였는데 실험결과 150층 이상으로 해도 정확도가 오르는 모습을 확인

DenseNet

  • DenseNet(2016)은 ResNet에서 한발 더 나아가 전체 네트워크의 모든 층과 통하는 지름길을 구축

  • conv-ReLU-conv 사이만 뛰어넘는 지름길을 만들었던 ResNet보다 훨씬 과감한 시도

 

728x90
반응형

'AI 인공지능 > AI Vision' 카테고리의 다른 글

Fashion MNIST  (0) 2021.09.12
Object Detection 개념  (0) 2021.09.12
Faster-RCNN  (0) 2021.09.09
CNN (합성 신경망)  (0) 2020.12.22
CNN (Convolutional neural network)  (0) 2018.12.31