딥시크, 세계 최대 오픈 소스 LLM 출시: GPT-4o를 능가할까?
본문 바로가기
AI Insight News

딥시크, 세계 최대 오픈 소스 LLM 출시: GPT-4o를 능가할까?

by AI.PixelMind 2024. 12. 28.
반응형

중국 AI 기술 선도 기업 딥시크(DeepSeek)가 세계 최대 규모의 오픈 소스 대형 언어 모델(LLM)인 딥시크-V3(DeepSeek-V3)를 공개하며, 글로벌 AI 시장에서 주목받고 있습니다. 이 모델은 6710억 개의 매개변수를 통해 메타(Meta)의 ‘라마 3.1 405B’와 알리바바(Alibaba)의 ‘큐원 2.5 72B’를 뛰어넘는 성능을 제공하며, 오픈AI의 GPT-4o와 직접적인 경쟁 구도를 형성하고 있습니다.


출처 = 셔터스톡

딥시크-V3의 특징: 새로운 기술적 도약

1. 역대 최대 매개변수

딥시크-V3는 6710억 개의 매개변수로 기존 최대 오픈 소스 모델인 라마 3.1 405B보다 1.5배 이상 큰 규모입니다. 이를 통해 텍스트 생성, 번역, 코딩, 이메일 작성 등 다양한 작업에서 놀라운 성능을 발휘합니다.

2. 효율적인 전문가 혼합(MoE) 방식

딥시크-V3는 전문가 혼합(Mixture of Experts, MoE) 방식을 활용해 특정 작업에 적합한 모델을 활성화합니다. 이로 인해 6710억 개의 매개변수 중 약 340억 개만 활성화하여 효율성을 극대화하며, 메모리 사용량과 추론 비용을 획기적으로 절감했습니다.

3. 경제적 훈련 비용

14조 8000억 개의 토큰으로 훈련된 딥시크-V3는 약 557만 달러(약 82억 원)의 비용으로 훈련을 마쳤습니다. 이는 라마 3.1의 훈련 비용 추정치인 약 5억 달러(약 7300억 원)와 비교할 때 매우 경제적입니다.

4. 강력한 기술 적용

  • 멀티헤드 잠재 어텐션(MLA): 텍스트에서 중요한 세부 정보를 반복적으로 추출하여 정보 손실을 줄임.
  • 멀티토큰 예측(MTP): 한 번에 여러 토큰을 생성하여 추론 속도를 향상.

이미지를 누르면 확대됩니다.

성능 비교: 글로벌 벤치마크 테스트에서 두각

딥시크-V3는 중국어와 수학 중심의 다양한 벤치마크 테스트에서 높은 점수를 기록하며 뛰어난 성능을 입증했습니다.

  • Math-500 테스트: 90.2점 기록 (큐원의 80점 대비 압도적인 성과)
  • SimpleQA 및 FRAMES: 영어 중심의 일부 테스트에서 GPT-4o보다 낮은 점수.
  • MMLU-Pro, IF-Eval 등: 특정 테스트에서는 앤트로픽의 클로드 3.5 소네트에 밀리는 결과도 존재.

딥시크-V3의 미래와 전망

딥시크는 중국 AI 업계를 대표하는 기업으로, 딥시크-V3의 출시를 통해 글로벌 AI 시장에서의 영향력을 확대하고 있습니다. 특히 딥시크-V3는 현재 허깅페이스(Hugging Face)와 깃허브(GitHub)를 통해 누구나 사용할 수 있어 연구자와 개발자들에게 새로운 가능성을 열어줍니다.

앞으로 딥시크-V3가 GPT-4o와의 경쟁에서 얼마나 더 발전할지, 그리고 AI 모델의 경제성과 효율성을 어떻게 개선할지 귀추가 주목됩니다.

 


 

"이 포스팅은 쿠팡 파트너스 활동의 일환으로, 이에 따른 일정액의 수수료를 제공받습니다."

 

출처

AI타임스 기사 원문

반응형