GoogleNet부터 다룬다.
- GoogleNet
: 깊이가 아닌 너비로 필터를 접근.
대신 계산복잡도가 증가할 수 있기에, 1x1 layer를 적용
전체적인 구조는 다음과 같음
노란색 사각형 쪽은 Auxiliary classifier로, 오차를 중간중간에 꽂아주는 역할을 한다. vanishing gradient 문제를 방지해준다.
- ResNet
: 현재도 많이 사용함
‘네트워크의 layer 개수(depth)가 모델의 성능을 더 높여준다’를 보여줌
원래 사람들은 layer 개수가 많을수록 오버피팅이 일어난다고 생각했지만, 아래 그림을 보면 56개의 layer가 training erro도 높고 test error도 높은 것을 볼 수 있다. 이는 오버피팅과 관계가 없다.
실제 구조는 다음과 같다.
- RestNet 이후
- DenseNet : 상위 레이어들이 하위 레이어들도 참조해서 특징을 더 잘 반영하게 한다.
모델들을 정리해보면 다음과 같다.
'KHUDA 활동 아카이브 > CV 기초' 카테고리의 다른 글
CNN Visualization (CNN의 블랙박스 현상 해결법) (1) | 2023.10.11 |
---|---|
[CV] Semantic Segmentation 및 object detection (0) | 2023.09.27 |
[CV] Data augmentation 및 Transfer learning (0) | 2023.09.20 |