트랜스포머 아키텍처:2017년 Google에서 발표한 논문 "Attention Is All You Need"에서 소개된 딥러닝 모델 구조현재 사용되는 LLM은 이 트랜스포머 구조를 기반으로 함 - RNN or LSTM 같은 순환 신경망 모델의 '학습 속도가 느리다'는 단점 해결 - 어텐션 메커니즘 & 병렬 처리 라는 두 가지 핵심 원리로 작동 트랜스포머의 핵심 원리 1. 어텐션 메커니즘어텐션은 문장 내에서 특정 작업을 수행할 때 어느 부분에 집중해야 할지 결정하는 능력 - 예를 들어, "사과가 냉장고에 없어서 나는 사과를 사러 마트에 갔다"라는 문장에서 '사과'라는 단어를 처리할 때, 모델은 문장의 모든 단어를 동시에 고려하여 관련 있는 단어들에 더 많은 주의를 기울임 2. 병렬 처리어텐션 메커..