LG AI연구원이 오픈소스 기반 '엑사원(EXAONE) 3.5'를 공개했다.

엑사원 3.0을 발표한 지 4개월 만의 업그레이드로, 각종 벤치마크 평가에서 메타의 라마 3.2를 능가했다고 LG는 밝혔다.

또한 LG AI연구원은 내년에 대규모행동모델(LAM)을 기반으로 자율행동이 가능한 'AI(인공지능) 에이전트' 개발을 목표로 하고 있다.


9일 LG AI연구원은 엑사원 3.5 모델 3종을 발표했다.

이들 모델은 고사양 환경에서 고난도 작업을 처리할 수 있는 32B(320억파라미터), 범용적인 용도로 사용할 수 있는 7.8B(78억파라미터), 스마트폰·태블릿PC에 내장할 수 있는 초경량 2.4B(24억파라미터)로 구성됐다.


엑사원 3.5는 △최대 3만2000토큰(1토큰은 영문 4~5자 또는 국문 2~3개 음절)의 길이를 처리할 수 있으며 △적은 학습 비용으로 동급 모델 대비 우수한 성능을 발휘하고 △AI 안전성과 신뢰성을 강화한 점이 특징이다.

LG AI연구원은 "엑사원 3.5는 입력되는 문장 길이에 따라 다르지만, A4 용지 100쪽 분량 텍스트도 한 번에 처리할 수 있다"고 설명했다.


현재 3만2000토큰을 처리할 수 있는 파운데이션 모델(대규모언어모델·LLM)은 오픈AI의 GPT-4나 구글의 제미나이에 한정돼 있다.

LG는 기술력을 통해 세계적 수준에 도달했다고 강조했다.

엑사원 3.5는 검색증강생성(RAG·Retrieval-Augmented Generation), 복잡한 문제를 단계적으로 분석하고 추론하는 다단계추론(MSR·Multi-Step Reasoning), 모델이 인간 선호도에 맞춰 응답을 생성하도록 학습한 선호도 최적화(Preference Optimization) 기술을 탑재했다.

또한 AI 윤리 문제를 개선하기 위해 데이터 지침을 준수하고 윤리적 평가를 시행했다.


벤치마크 테스트 결과도 공개했다.

LG AI연구원은 엑사원 3.5로 7개 활용 사례, 4개 장문 처리, 9개 범용 도메인을 비롯해 총 20개 테스트를 수행했다.

엑사원 2.4B 모델 기준으로 장문 처리에서 63.4점, 사용 성능에서 61.1점을 기록했다.

이는 메타 라마(44.2점·36.7점)와 알리바바 큐원(40.7점·44.5점)에 비해 월등한 성능이다.

LG AI연구원은 "논리적 사고력 평가와 한국어 평가에서도 뛰어난 점수를 기록하며 한국어와 영어 모두에서 우수한 이중언어 처리 능력을 입증했다"고 설명했다.

특히 엑사원 32B 모델은 코딩 테스트에서 87.2점을 기록해 뛰어난 성능을 보였다.


LG AI연구원은 2020년 설립된 이후 올해 4주년을 맞았다.

내년에는 LAM 기반으로 AI 에이전트를 개발하는 것을 목표로 삼고 있다.

배경훈 LG AI연구원장은 "생성형 AI 모델의 발전이 빠르게 진행되고 있는 만큼 업그레이드 속도가 중요하다"며 "산업 현장에서 활용할 수 있는 초인공지능을 목표로 혁신 속도를 높여 한국을 대표하는 프런티어 모델로 발전시켜 나가겠다"고 말했다.


한편 LG는 구광모 LG그룹 회장이 미래 사업으로 집중 투자하고 있는 AI 분야에서 LG AI연구원을 중심으로 'AI 대전환'을 추진 중이다.

이를 위해 LG AI연구원은 임직원을 대상으로 '챗엑사원(ChatEXAONE)' 서비스를 정식 제공하기 시작했다.

챗엑사원은 엑사원을 기반으로 구축된 모델로, 정보 암호화와 개인정보 보호 기술을 적용해 임직원이 사내 보안 환경에서 데이터 유출 걱정 없이 활용할 수 있다.


[이상덕 기자]
[ⓒ 매일경제 & mk.co.kr, 무단전재 및 재배포 금지]

오늘의 이슈픽