연세대학교 DE LAB에서 진행한 발표 자료입니다.
학부생 수준에서 논문을 읽고 정리해보았습니다.
Vision 관점에서 Attention을 알아보고 NLP 논문 “Attention is All You Need”를 리뷰하였습니다.
추가로 Residual Learning 및 ResNet Family(ResNeXt, ResNet-SR, ConvNeXt)에 대해 간단히 정리하였습니다.
논문: https://arxiv.org/pdf/1706.03762.pdf
<PT 자료>
<정리(발표) 자료>
<참고 자료>
1. 트랜스포머(Transformer)
https://wikidocs.net/31379
2. [딥러닝 기계 번역] Transformer: Attention Is All You Need (꼼꼼한 딥러닝 논문 리뷰와 코드 실습)
https://www.youtube.com/watch?v=AA621UofTUA
3. 트랜스포머 (어텐션 이즈 올 유 니드)
https://www.youtube.com/watch?v=mxGCEWOxfe8
4. [Open DMQA Seminar] Revisiting CNNs
https://www.youtube.com/watch?v=D17yE7vZG2k&t=2727s