모레(MOREH) ‘102B 최강 한국어 LLM’ 공개: GPT-4o·큐원2 능가하는 성능
본문 바로가기
AI Insight News

모레(MOREH) ‘102B 최강 한국어 LLM’ 공개: GPT-4o·큐원2 능가하는 성능

by AI.PixelMind 2024. 12. 4.
반응형

2024년 12월 6일, AI 인프라 솔루션 전문 기업 모레(MOREH)는 한국어 대형언어모델(LLM)인 ‘라마3-모티프-102B(Llama-3-Motif-102B)’를 오픈소스로 공개합니다. 이는 한국어 자연어 처리 성능에서 새로운 기준을 세울 것으로 기대됩니다.

 

라마3-모티프-102B: 무엇이 다른가?

모레가 개발한 이 모델은 기존의 ‘라마3.0 70B’를 기반으로 매개변수를 1020억 개로 대폭 확장한 버전입니다. 특히 한국어 답변 성능을 극대화하는 데 초점을 맞추었으며, 공개되는 두 가지 버전은 다음과 같습니다:

  • 사전 훈련 언어 모델
  • 지시 사항을 따르는 인스트럭트 모델

KMMLU 성능 1위 달성

KMMLU 벤치마크 테스트에서 라마3-모티프-102B는 64.74점으로 1위를 기록했습니다. 이는 오픈AI의 GPT-4o(64.11점)와 알리바바의 큐원2(64.1점)를 모두 앞선 결과입니다.

주요 특징

  1. 전문 데이터 학습: 1870억 토큰 규모의 한국어 데이터를 활용, 한국 특허, 연구 보고서 등 전문 문서까지 학습.
  2. 고성능 AI 플랫폼: 모레의 ‘모아이(MoAI)’ 플랫폼을 통해 효율적인 대규모 모델 학습 지원.
  3. GPU 가상화 기술: 텐스토렌트와 협력해 엔비디아의 독점 구조를 넘어서는 AI 인프라 개발.

글로벌 경쟁력과 향후 비전

모레는 라마3-모티프-102B를 통해 글로벌 AI 리더들과 경쟁하며, 궁극적으로 완전한 한국형 LLM을 개발하는 것을 목표로 삼고 있습니다. 또한 멀티모달 모델, 전문 영역 특화 모델(의료, 법률, 금융 등) 개발도 계획 중입니다.

한국 AI 생태계의 새로운 도약

모레의 오픈소스 전략은 한국 AI 생태계에 커다란 혁신을 가져올 것으로 기대됩니다. 국내 개발자와 연구자들이 이를 활용해 AI 기술의 저변을 확대하고 글로벌 시장에서 한국어 모델의 위상을 높일 수 있는 기회가 될 것입니다.

 

 

 

"이 포스팅은 쿠팡 파트너스 활동의 일환으로, 이에 따른 일정액의 수수료를 제공받습니다."

글 출처

반응형