논문링크 : Squeeze-and-Excitation Networks

핵심 아이디어 : 컨볼루션을 통해 생성된 특성을 채널당 중요도를 고려해서 재보정(recalibration)하는 것. 

2018년 CVPR에서 발표, SENet은 2017년 이미지넷 대회에서 우승을 차지한 모델. top-5 error가 2.251% (ground-truth인 사람의 top-5 error가 5%, 이는 해당 데이터셋에 대해 사람보다 이미지 분류를 더 잘 한다는 뜻)

기존 어떤 모델에도 적용될 수 있는 SE block이라는 것을 제안, VGGNet, GoogLeNet, ResNet 등에 SE block을 첨가함으로써 성능 향상을 도모할 수 있음. 성능은 꽤 많이 향상되는 반면, hyperparameter는 많이 늘지 않기 때문에, 연산량 증가는 크지 않다. (Contribution)

SE block

    1. [Figure 1]에서 X, U는 특성맵,  \(F_{tr}\)은 컨볼루션 연산, H'xW'xC' 크기의 특성맵 X가 HxWxC 크기의 특성맵 U로 변환
    2. 스퀴즈(squeeze) : global average pooling (GAP)을 통해 C개 채널의 2차원(HxW)의 특성맵들을 1x1 사이즈의 특성맵으로 변환 (컨볼루션 연산이 local 정보를 다룬다면, 스퀴즈는 global 정보를 다른다)
    3. 활성화(excitation) : 두 개의 Fully-connected(FC) 층을 더해줘서 각 채널의 상대적 중요도를 알아냄
    4. 재보정 :  C개의 \(S_{c}\) \(U_{c}\)에 각각 곱해줘서 U를 재보정. 

활성화(excitation)
재보정
GoogLeNet의 경우에는 Inception 모듈 뒤에 붙이면 되고, ResNet의 경우에는 Residual 모듈 뒤에 붙이면 된다.

반응형

'머신러닝_딥러닝 > Object Detection' 카테고리의 다른 글

(논문리뷰) Yolo v1 (2016)  (0) 2021.09.13
(논문리뷰) Faster R-CNN  (0) 2021.09.13
(논문리뷰) Fast R-CNN  (0) 2021.09.13
(논문리뷰) R-CNN  (0) 2021.09.13
(논문리뷰) DenseNet  (0) 2021.01.15

+ Recent posts