ResNet 논문 읽기

  1. gradient 와 관련 된 문제는 normalization으로 해결됨
  2. 하지만 여전히 layer가 깊어지면 train loss가 증가(degradation / underfitting)
  3. 잔차를 이용한 최적화와 이를 구현하기 위한 shortcut + bottleneck 구조로 깊이 확장 가능성

ResNet 핵심 구현