-
[트랜스포머] Vanilla Transformer 관련CS/ML&DL 2022. 6. 13. 03:07
교재 : 구글 BERT의 정석
Part 1.
Q. 셀프 어텐션의 전체 단계를 설명하라.
Q. Sclaed Dot Product Attention을 정의하라.
Q. Query, Key, Value 행렬은 어떻게 생성하는가?
Q. Positional Encoding이 필요한 이유는 무엇인가?
Q. Decoder의 sub-layer는 무엇이 있는가?
Q. Decoder의 Encoder-Decoder Attention layer의 입력은 무엇인가?
===========================
다른 질문,
Q. LSTM 과 Transformer의 차이는?
====================================================
'CS > ML&DL' 카테고리의 다른 글
[Predict_Future_Sales] 관련 (0) 2022.06.30 [kaggle] Bike_sharing_demand (0) 2022.06.29 [Preprocessing] Wavelet Transform (1) (0) 2022.05.30 [issue-sklearn] ValueError: Input contains NaN, infinity or a value too large for dtype('float32'). (0) 2022.05.22 [강의] 베이지안 관련 링크 (0) 2022.05.22