2020년 2월 6일 목요일

Resnet은 왜 잘 작동할까?

스터디일시 : 01/10 금요일 오후 6시 30분

스터디내용 :

CNN 과 Fully Network Layer 의 차이점


                 
s는 output featuremap을 의미하고 , x는  input featuremap을 의미한다.
fully connected layer의 경우 input이 output featuremap의 픽셀값에 다 반영이 되지만,
CNN의 경우 input의 일부만이 반영이 된다.

CNN은  weight를 공유한다. 같은 색깔은 같은 weight를 의미한다.

ResNet이 왜 나오게 되었는가?
층이 깊어질 수록 vanishing gradient 문제가 발생하여 
성능이 오히려 저하된다.
이문제를 해결하기 위해서 기존의 layer를 파라미터 없이 
연결하여 성능저하를 막는다.

Residual Block 을 BottleNeck으로 왜 교체하는가?
Net 상에서 Parameter의 갯수가 감소하여 CNN의 연산 속도 향상 효과를 불러온다.
Resnet.pptx
1.14MB

댓글 없음:

댓글 쓰기