Attention Is All You Need
courses/attention-is-all-you-need/contributor-test
Transformer 아키텍처는 recurrence를 완전히 self-attention으로 대체하여, 기계 번역에서 SOTA 성능을 달성하면서도 훈련 병렬화를 가능하게 한 획기적 모델입니다.
Created by 0xaF5bd3e4...
on 2/21/2026
Explorers
0
Max Depth
0
Avg Depth
0
Topic Subgraph
Explorations (0)
No explorations found for this topic.