seq2seq 2

Seq2Seq(Sequence to Sequence) 모델

Seq2Seq 모델은 입력 시퀀스를 고정된 길이의 벡터로 인코딩한 다음, 이를 기반으로 출력 시퀀스를 생성하는 딥러닝 모델 구조이다. 이 구조는 기계 번역, 텍스트 요약, 질의응답 시스템 등과 같은 자연어 처리 작업에서 특히 유용하다. 이제 더 깊이 들어가서 Seq2Seq 모델의 내부 동작, 학습 과정, 그리고 어텐션 메커니즘에 대해 자세히 설명하겠다.1. Seq2Seq 모델의 기본 구조인코더 (Encoder)역할: 인코더는 입력 시퀀스를 받아 이를 고정된 길이의 벡터로 압축하는 역할을 한다. 이 벡터를 '컨텍스트 벡터(context vector)'라고 한다.구조: 인코더는 일반적으로 RNN(Recurrent Neural Network), LSTM(Long Short-Term Memory), 또는 GRU..

컴퓨터공학/RNN 2024.08.26

Attention is All You Need

"Attention Is All You Need"는 Google에서 일하는 8명의 과학자가 저술한 기계 학습 분야의 2017년 기념비적 연구 논문으로, 2014년 Bahdanau 등이 제안한 어텐션 메커니즘을 기반으로  자연어 처리(NLP) 분야에서 큰 혁신을 일으킨 트랜스포머(Transformer) 모델을 소개하고 있다. 이 논문은 전통적인 순차 처리 방식의 RNN(Recurrent Neural Network)이나 LSTM(Long Short-Term Memory)과는 달리, 완전히 Attention 메커니즘에 기반한 모델을 제안하여 성능과 효율성 면에서 뛰어난 결과를 보여준다. Attention Is All You NeedThe dominant sequence transduction models ar..