LG AI 엑사원, 멀티모달 확장 역량 입증
LG AI연구원이 9일 멀티모달 AI 모델 '엑사원 4.5'를 공개했다. 정부의 독자 AI 개발 사업에서 멀티모달 확장을 검증하고 피지컬 AI로의 로드맵을 제시했다.
'엑사원 4.5'는 자체 개발한 비전 인코더와 거대언어모델(LLM)을 통합한 비전-언어 모델(VLM)로, 가상 환경을 넘어 물리적 세계를 이해하는 '피지컬 인텔리전스'로 엑사원을 발전시키기 위한 준비 단계로 규정됐다.
이러한 기술 개발은 과학기술정보통신부가 추진하는 '독자 AI 파운데이션 모델(독파모)' 사업 참여의 일환으로, 외산 AI 의존도를 낮추고 독자 기술력을 확보하려는 정부 정책 방향과 맥을 같이 한다.
LG AI연구원은 독파모 사업을 통해 2360억 개 파라미터 규모 LLM 'K-엑사원'을 개발했으며, 1차 단계평가에서 최고점을 받았다. 8월 2차 평가 이후 3차 진출이 확정되면 'K-엑사원'을 이미지, 음성, 영상까지 이해하는 멀티모달로 확장할 계획이다.
'엑사원 4.5'는 330억 개 파라미터 규모에도 텍스트 이해·추론 영역에서 'K-엑사원' 대비 동등 성능을 구현했다. 자체 개발한 하이브리드 어텐션 구조와 고속 추론 기술을 적용해 글로벌 경쟁 모델 대비 우수한 벤치마크 결과를 보였다.
'엑사원 4.5'는 계약서, 기술 도면 등 산업 현장 문서 추론에 강점을 보인다. 한국어·영어를 넘어 스페인어, 독일어 등 다국어를 지원하며, 허깅페이스(AI 모델 공유 플랫폼) 공개, 한국 문화 특화 학습, 청년 AI 전문가 육성 프로그램 활용 등 '모두의 AI' 실현을 위한 접근성 확대 노력을 병행한다.
LG AI연구원 신뢰안전사무국 총괄인 김명신은 "한국어 능력을 갖춘 AI는 늘고 있지만, 역사와 문화적 민감성을 이해하는 것은 차원이 다른 문제"라며, "엑사원은 자체 설계한 AI 위험 분류체계(K-AUT)를 기반으로 풍부한 표현력과 신뢰성을 동시에 확보한 AI로 진화할 것"이라고 말했다.
본 기사는 AI가 생성하였으며, 사람이 검수한 기사입니다.