트랜스포머 (Transformer)

트랜스포머(Transformer)는 2017년 구글이 발표한 논문 “Attention is All You Need“에서 처음 제안된 딥러닝 아키텍처로, 문장 속 단어 간의 관계와 중요도를 파악하는 ‘셀프 어텐션(Self-Attention)’ 메커니즘을 핵심으로 하는 모델이다. 데이터를 순차적으로 처리해야 했던 기존의 순환 신경망(RNN)과 달리, 트랜스포머는 입력된 전체 데이터를 병렬로 처리할 수 있어 학습 속도가 빠르고 긴 문맥(Context)의 의존성을 파악하는 성능이 뛰어나다. 인코더(Encoder)와 디코더(Decoder) 구조를 기반으로 하는 이 기술은 번역, 요약 등 자연어 처리(NLP) 분야의 혁신을 이끌었으며, 오늘날 BERT나 GPT와 같은 현대 거대 언어 모델(LLM)의 기술적 기반이 되었다.

연구

비교

하위 주제