728x90
반응형
정의
입력 단어를 예측하는 매 시점(time step)마다, 인코더에서의 전체 입력 문장을 다시 한 번 참고하는 기술
사용이유
- 첫째, 하나의 고정된 크기의 벡터에 모든 정보를 압축하려고 하니까 정보 손실이 발생
- 둘째, RNN의 고질적인 문제인 기울기 소실(Vanishing Gradient) 문제가 존재
즉, 결국 이는 기계 번역 분야에서 입력 문장이 길면 번역 품질이 떨어지는 현상으로 나타나서
이를 위한 대안으로 입력 시퀀스가 길어지면 출력 시퀀스의 정확도가 떨어지는 것을 보정해주기 위한 등장한 기법인 등장
728x90
반응형
'AI 인공지능 > NLP' 카테고리의 다른 글
한글 형태소 분석기 종류 (0) | 2022.08.31 |
---|---|
NLP 토큰화 (Tokenization) 처리 방법 (0) | 2022.08.31 |
기계 번역 - 오픈 소스 벤치마킹 (0) | 2022.08.09 |
트랜스포머 (Transformer) (0) | 2021.01.19 |
시퀀스-투-시퀀스 (Sequence-To-Sequence, seq2seq) (0) | 2021.01.12 |