<aside> 💡 원저자(Maarten Grootendorst)의 허락을 받아 원문을 번역 및 검수중입니다.
</aside>
<aside> 🚧 번역 오류 발견시 알려주시면 수정하겠습니다.
</aside>
원문 저자: Maarten Grootendorst
번역: 신종훈
원문을 번역하고 일부 링크를 추가하였습니다. 해당 글의 1인칭은 원문 저자를 지칭합니다.
원문(Original English Post by Maarten Grootendorst):
A Visual Guide to Reasoning LLMs
DeepSeek-R1, OpenAI o3-mini, 그리고 Google Gemini 2.0 Flash Thinking은 LLMs가 “reasoning” 프레임워크를 통해 어떻게 새로운 차원으로 확장될 수 있는지 보여주는 대표적인 예시입니다.
이들은 학습 시점의 연산(train-time compute)의 확장(scaling)에서 추론 시점의 연산(test-time compute)의 확장으로의 패러다임 전환을 의미합니다.
이 글에서 40개 이상의 시각 자료를 통해 reasoning LLMs, test-time compute, 그리고 DeepSeek-R1를 알아보려고 합니다. 이 새로운 패러다임에 대한 직관을 키우기 위해, 개념을 하나씩 살펴봅시다.
일반적인 LLMs와 비교했을 때, reasoning LLMs는 주어진 질문에 답하기 전에 문제를 더 작은 단계(일반적으로 reasoning steps 또는 thought processes라고 불림)로 나누려고 합니다.
그렇다면 “thought process”, “reasoning step”, 또는 “Chain-of-Thought”는 실제로 무엇을 의미할까요?
LLMs가 실제로 인간처럼 생각할 수 있는지 여부를 철학적으로 논의¹ 할 수도 있지만, 이러한 reasoning 단계는 과정을 더 작은, 구조화된 추론(inference)으로 분해합니다.