<aside> 💡 원저자(Maarten Grootendorst)의 허락을 받아 원문을 번역 및 검수중입니다.
</aside>
<aside> 🚧 번역 오류 발견시 알려주시면 수정하겠습니다.
</aside>
원문 저자: Maarten Grootendorst
번역: 신종훈
원문을 번역하고 일부 링크를 추가하였습니다. 해당 글의 1인칭은 원문 저자를 지칭합니다.
원문(Original English Post by Maarten Grootendorst):
LLM Agents는 널리 확산되고 있으며, 우리에게 익숙한 “일반적인” 대화형 LLM을 잠식해 가는 듯합니다. 이러한 놀라운 역량은 쉽게 만들어지지 않으며, 여러 컴포넌트가 함께 작동해야 비로소 가능해집니다.
이 글에는 60개 이상의 시각 자료가 포함되어 있으며, 이를 통해 LLM Agents 분야, 그 주요 구성 요소, 그리고 Multi-Agent 프레임워크를 살펴보게 될 것입니다.
LLM Agents가 무엇인지 이해하기 위해, 먼저 LLM의 기본 역량을 살펴봅시다. 전통적으로, LLM은 오로지 다음 토큰을 예측(next-token prediction)만 합니다.
여러 토큰을 연속으로 샘플링하여 대화를 모사하고, 우리의 질의에 대해 LLM을 활용해 더 포괄적인 답변을 제공할 수 있습니다.