LeNet-5

image.png

AlexNet

더 크고 깊을 뿐 LeNet-5와 비슷하며 처음으로 합성곱 층 위에 풀링층을 쌓지 않고 바로 합성곱층끼리 쌓았다.

⇒ 이게 왜 좋은거지

GoogLeNet

image.png

ResNet (잔차 네트워크)

기존 구조의 문제: VGG처럼 깊은 네트워크는 일반적으로 성능이 더 좋아진다. 하지만 네트워크 깊이가 너무 깊어지면 성능이 오히려 하락한다. 예를 들어 56층 네트워크는 20층 네트워크보다 더 높은 학습 오류를 보인다. 이는 기울기 소실/폭증 문제로 인해 발생한다.

⇒ 여태까지는 가중치 초기화 방법과 배치 정규화로 이 문제를 해결해왔다.

하지만 Residual Network (ResNet)은 **skip connection**을 추가해 기울기가 원활히 흐를 수 있도록 만들어 학습을 더 안정적으로 하고 빠른 수렴을 돕는다.

residual Network의 관점