ResNet 논문 읽기 gradient 와 관련 된 문제는 normalization으로 해결됨 하지만 여전히 layer가 깊어지면 train loss가 증가(degradation / underfitting) 잔차를 이용한 최적화와 이를 구현하기 위한 shortcut + bottleneck 구조로 깊이 확장 가능성 ResNet 핵심 구현