'제2 이루다 사태' 막는다…LG·카카오 'AI윤리' 바로 세우기 앞장

【 앵커멘트 】
2년 전 장애인에 대한 혐오 발언으로 논란을 빚은 인공지능 챗봇 '이루다 사태', 기억나시나요?
우리 사회에 AI윤리 기준이 필요하다는 경종을 울린 사건이었는데요.
최근 LG와 카카오 등 기업들이 AI윤리 규범 세우기에 나섰습니다.
고진경 기자입니다.


【 기자 】
지난 2020년 12월 말 소개된 AI챗봇 '이루다'입니다.

공개와 동시에 화제가 됐지만, 성희롱과 혐오 발언으로 도마 위에 오르며 20여 일 만에 서비스가 중단됐습니다.

이 사건으로 AI윤리 문제가 수면 위로 떠오른 지 약 2년이 지났는데, 최근 기업들이 자발적으로 AI 윤리 기준 제정에 나서고 있습니다.

LG는 인간존중과 공정성 등의 가치를 담은 'AI 윤리원칙'을 발표했습니다.

AI 연구와 개발 단계에서 생길 수 있는 윤리 문제를 사전에 검증하는 전담팀도 신설했습니다.

또 상담 챗봇이 고객에게 혐오나 차별적인 표현을 하지 않도록 '표현 감지 기술'을 개발하기로 했습니다.

▶ 인터뷰(☎) : 김영진 / LG 홍보팀 책임
- "인공지능 기술이 사람을 돕기 위해 올바른 판단과 정확한 답을 제공해 주는 것이 필수인데요. 이와 함께 윤리적으로도 문제가 되지 않고 신뢰할 수 있는 AI를 개발하기 위해…"

카카오는 지난달 국내 기업 최초로 '기술윤리 위원회'를 출범했습니다.

카카오의 서비스들이 AI 윤리 규정을 준수하는지를 점검하기 위해서입니다.

각 산업에 AI 적용이 빠르게 확대되고 있는 가운데, 기업들이 윤리 문제 예방에 나선 겁니다.

전문가들은 AI 윤리와 관련된 법과 제도적 기반이 아직 미흡해, 기업들의 자발적인 노력이 더욱 중요하다고 말합니다.

▶ 인터뷰(☎) : 이성엽 / 고려대 기술경영전문대학원 교수
- "회사 스스로 자율적으로 윤리 규범을 만드는 게 고무적인 것 같아요. 잘 되면 타율적인 법적 규제보다 더 강력한 자율 규제가 될 수 있으니까…실제 기술이나 서비스에서 어떤 부분이 자체적으로 모니터링할 필요가 있는지는 기업들이 제일 잘 알 수 있잖아요?"

제2의 이루다 사태를 만들지 않겠다는 결심이 기업들의 AI 윤리 바로 세우기로 이어지고 있습니다.

매일경제TV 고진경입니다. [ jkkoh@mk.co.kr ]

[ⓒ 매일경제TV & mktv.co.kr, 무단전재 및 재배포 금지 ]

오늘의 이슈픽