상세 컨텐츠

본문 제목

NLP 딥논읽 청강의 청강 11월 1일, 2일 주제

Data Scientist

by 자색 고구마칩 2021. 10. 29. 07:14

본문

2021년 11월 1일, 2일의 주제는 Transformer, Attention is All you Need 입니다.

 

https://www.youtube.com/watch?v=EyXehqvkfF0&list=PLPmhunCKUE-Die6GYNoieEWCkAgJRP2V9&ab_channel=%EB%94%A5%EB%9F%AC%EB%8B%9D%EB%85%BC%EB%AC%B8%EC%9D%BD%EA%B8%B0%EB%AA%A8%EC%9E%84 

고려대학교의 허다운님이 리뷰해주셨습니다. 이 동영상 보고 오시기 바랍니다.

 

https://arxiv.org/abs/1706.03762

 

Attention Is All You Need

The dominant sequence transduction models are based on complex recurrent or convolutional neural networks in an encoder-decoder configuration. The best performing models also connect the encoder and decoder through an attention mechanism. We propose a new

arxiv.org

Transformer 논문입니다. 최소 1회독하고 오시기 바랍니다.

https://ynebula.tistory.com/51

 

Transformer - Attention Is All You Need 논문 한글 번역

 Attention Is All You Need논문을 직역 및 의역으로 작성한 내용입니다. Abstract Dominant sequence transduction mode은 encoder와 decoder를 가지고 있는 complex recurrent or convolutional neural network..

ynebula.tistory.com

영어논문 한번 읽고 밑에 한글 번역 논문도 한번 읽어보세요

 

 

참고자료입니다

https://www.youtube.com/watch?v=AA621UofTUA 

https://catsirup.github.io/ai/2020/03/27/attention.html

 

[Machine Learning] Attention, 어텐션

Attention~

catsirup.github.io

https://catsirup.github.io/ai/2020/04/07/transformer.html

 

[논문 뽀개기] Attention is All You Need

뻠블비~

catsirup.github.io

https://catsirup.github.io/ai/2020/04/09/transformer-code.html

 

[Python, Pytorch] Attention is All You Need 코드 구현

이제 코드로도 짜봐야지

catsirup.github.io

 

스터디 때 뵙겠습니다. 감사합니다.

관련글 더보기

댓글 영역