LG AI연구원이 지난 10~11일(현지시간) 프랑스 파리에서 열린 '인공지능(AI) 행동 정상회의'에서 데이터의 신뢰성을 높이는 AI 기술을 제시했다고 12일 밝혔다.


LG AI연구원은 회의에 참가해 'AI 윤리 책무성 보고서'를 공유했다.

지난해에 이어 올해 두 번째로 발간한 보고서는 책임 있는 AI와 포용적 AI 실현을 위한 LG의 노력을 담고 있다.


특히 보고서에는 '모든 문제는 데이터 문제로부터 시작된다'는 인식하에 LG AI연구원이 개발한 '데이터 컴플라이언스 에이전트'도 담겼다.

이는 AI 모델이 학습하는 데이터의 위험을 자동으로 분석하고 위험 등급을 평가하는 체계다.


데이터 컴플라이언스 에이전트는 미국, 영국, 유럽연합(EU), 한국, 중국을 포함한 다양한 관할권의 저작권법과 판례, AI 규제 등을 고려해 데이터의 법적 위험성을 평가해준다.

실제로 LG AI연구원이 데이터 컴플라이언스 에이전트로 수백 건의 AI 학습 데이터의 법적 안정성을 검토한 결과, 법률 전문가보다 정확도는 26% 향상되고, 속도는 45배 높이고, 비용은 0.1% 수준으로 낮춘 것으로 확인됐다.

LG AI연구원은 데이터 컴플라이언스 에이전트가 AI의 법적 안정성을 높이는 데 기여할 수 있음을 증명한 연구 성과를 공개하고 글로벌 표준 기술로 자리 잡을 수 있도록 글로벌 법률 전문가들과 협력을 강화한다는 계획이다.


[박승주 기자]
[ⓒ 매일경제 & mk.co.kr, 무단전재 및 재배포 금지]

오늘의 이슈픽