2021년 11월 1일, 2일의 주제는 Transformer, Attention is All you Need 입니다.
고려대학교의 허다운님이 리뷰해주셨습니다. 이 동영상 보고 오시기 바랍니다.
https://arxiv.org/abs/1706.03762
Attention Is All You Need
The dominant sequence transduction models are based on complex recurrent or convolutional neural networks in an encoder-decoder configuration. The best performing models also connect the encoder and decoder through an attention mechanism. We propose a new
arxiv.org
Transformer 논문입니다. 최소 1회독하고 오시기 바랍니다.
https://ynebula.tistory.com/51
Transformer - Attention Is All You Need 논문 한글 번역
Attention Is All You Need논문을 직역 및 의역으로 작성한 내용입니다. Abstract Dominant sequence transduction mode은 encoder와 decoder를 가지고 있는 complex recurrent or convolutional neural network..
ynebula.tistory.com
영어논문 한번 읽고 밑에 한글 번역 논문도 한번 읽어보세요
참고자료입니다
https://www.youtube.com/watch?v=AA621UofTUA
https://catsirup.github.io/ai/2020/03/27/attention.html
[Machine Learning] Attention, 어텐션
Attention~
catsirup.github.io
https://catsirup.github.io/ai/2020/04/07/transformer.html
[논문 뽀개기] Attention is All You Need
뻠블비~
catsirup.github.io
https://catsirup.github.io/ai/2020/04/09/transformer-code.html
[Python, Pytorch] Attention is All You Need 코드 구현
이제 코드로도 짜봐야지
catsirup.github.io
스터디 때 뵙겠습니다. 감사합니다.
NLP 딥논읽 청강의 청강 11월 10, 11, 12일 주제 (0) | 2021.11.01 |
---|---|
Transformer (0) | 2021.11.01 |
NLP 딥논읽 청강의 청강 운영공지 (0) | 2021.10.29 |
신입의 경력 기술서 쓰기 팁. (0) | 2020.01.28 |
레노버 요가북( Lenovo C740-14IML ) 언박싱 + 리뷰! (0) | 2020.01.22 |
댓글 영역