인공지능(AI) 거대언어모델(LLM) 경쟁이 다시 불붙기 시작했다.
지난 1월 중국의 AI 모델 딥시크가 공개된 이후 오픈AI와 구글, 알리바바 등이 최신 모델들을 앞다퉈 쏟아낸 데 이어 페이스북 모회사 메타도 기존 모델 대비 성능을 크게 끌어올린 LLM 신모델을 공개했다.
메타는 5일(현지시간) 자사의 최신 LLM인 라마4(Llama 4)를 공개했다.
메타에 따르면 라마4는 베헤모스, 매버릭, 스카우트로 나뉘어 있다.
이날 오픈소스로 공개된 것은 매버릭과 스카우트 두 모델이며 베헤모스는 현재 학습을 진행 중이다.
베헤모스는 매개변수가 2조개에 달하는 거
대모델로 지금까지 공개된 라마 중 가장 많은 매개변수를 가졌다.
2023년 3월에 나온 오픈AI의 GPT-4가 1조7600개의 매개변수를 가진 것으로 알려져 있다.
매버릭과 스카우트는 베헤모스를 증류하는 방식을 통해서 만들어졌다.
라마4 매버릭은 4000억개 매개변수로 GPT-4o, 제미나이 2.0 플래시보다 우수한 성능을 내고 코딩과 사고력에서 딥시크 V3와 유사한 성능을 발휘한다.
라마4 스카우트는 매개변수가 1090억개인 소형 모델로 추론 처리에 최적화돼 있다.
젬마3, 제미나이2.0 플래시라이트 등에 비해 우수한 성능을 달성했다.
라마4는 전문가 혼합(MoE) 방식을 도입한 것이 큰 특징이다.
MoE는 질문에 따라 필요한 AI만 활용하는 방식으로 비용을 줄이면서 성능도 높일 수 있다.
중국의 AI 모델 딥시크가 적극 사용한 것으로 잘 알려져 있다.
딥시크의 장점을 취하면서도 딥시크는 갖추지 못한 멀티모달 기능에 집중한 것도 라마4의 특징이다.
메타는 "음성 등 많은 양의 정보를 한 번에 입력할 수 있는 최초의 개방형 멀티모달 모델"이라고 소개했다.
지난 1월 딥시크가 세상을 놀라게 한 이후 빅테크 기업들의 신형 LLM이 매달 쏟아지고 있다.
샘 올트먼 오픈AI 최고경영자(CEO)는 지난 4일 자신의 X를 통해서 신형 AI 모델인 o3와 o4 미니를 몇 주 내로 공개하고 GPT-5를 몇 달 내로 내놓을 것이라고 밝혔다.
그는 GPT-5를 원래 생각했던 것보다 훨씬 좋게 만들 수 있을 것이며, o3도 사전에 공개했던 것보다 좋은 성능을 낼 것이라고 자신감을 표했다.
[실리콘밸리 이덕주 특파원]
[ⓒ 매일경제 & mk.co.kr, 무단전재 및 재배포 금지]