<aside> 💡
원저자(Jay Alammar)의 허락을 받아 원문을 번역 및 검수중입니다.
</aside>
<aside> 🚧 번역 오류 발견시 알려주시면 수정하겠습니다.
</aside>
원문 저자: Jay Alammar
번역: 신종훈
원문을 번역하고 일부 링크를 추가하였습니다. 해당 글의 1인칭은 원문 저자를 지칭합니다.
원문(Original English Post by Jay Alammar):
OpenAI의 GPT-OSS 출시는 6년 전 GPT-2 이후 처음으로 나온 주요 오픈소스 LLM입니다. 그동안 LLM의 성능은 극적으로 발전했습니다. GPT-OSS 모델 자체가 DeepSeek, Qwen, Kimi 등 기존 오픈 모델에 비해 성능 면에서 비약적인 도약을 이룬 것은 아닐 수 있지만, 그동안 LLM이 어떻게 변해왔는지 다시 한번 살펴볼 좋은 기회를 제공합니다.
GPT-OSS는 한 번에 한 토큰씩 생성하는 자기회귀(autoregressive) Transformer라는 점에서 이전 모델들과 유사합니다.
2025년 중반의 LLM이 이전과 크게 다른 점은, 생성된 토큰으로 훨씬 더 어려운 문제들을 해결할 수 있다는 것입니다. 이는 다음과 같은 능력을 통해 가능해졌습니다: