<aside> 💡 원저자(Maarten Grootendorst)의 허락을 받아 원문을 번역 및 검수중입니다.

</aside>

<aside> 🚧 번역 오류 발견시 알려주시면 수정하겠습니다.

</aside>

원문 저자: Maarten Grootendorst

번역: 신종훈

원문을 번역하고 일부 링크를 추가하였습니다. 해당 글의 1인칭은 원문 저자를 지칭합니다.

원문(Original English Post by Maarten Grootendorst):

A Visual Guide to Mixture of Experts (MoE)



최신 Large Language Models (LLMs) 모델의 이름을 보면 종종 제목에 “MoE”라는 용어를 볼 수 있습니다. 이 “MoE”는 무엇을 의미하며 왜 많은 LLM들이 이를 사용하고 있을까요?

이 비주얼 가이드에서는 50개 이상의 시각화 자료를 통해 *Mixture of Experts (MoE)*이라는 중요한 구성 요소를 알아볼 것입니다!

https://substackcdn.com/image/fetch/w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F50a9eba8-8490-4959-8cda-f0855af65d67_1360x972.png

이 비주얼 가이드에서는 일반적인 LLM 기반 아키텍처에 적용된 MoE의 두 가지 주요 구성 요소인 ExpertRouter에 대해 살펴보겠습니다.

이 비주얼 가이드의 여러 시각화 자료를 통해 Mixture of Experts에 관해 직관적으로 알 수 있을 것입니다.

목차