주요 인공지능(AI) 기업들이 포진해 있는 미국 캘리포니아주 의회에서 AI 안전과 관련한 새 규제 법안이 발의돼 빅테크를 포함한 실리콘밸리 내 AI 업계가 크게 반발하고 있습니다.

현지시간 6일 파이낸셜타임스(FT)에 따르면 캘리포니아 주의회는 AI가 불러올 각종 위험을 사전에 방지하기 위한 각종 안전장치를 마련하는 것을 골자로 하는 '첨단 AI 시스템을 위한 안전과 보안 혁신법'(Safe and Secure Innovation for Frontier Artificial Intelligence Systems Act)을 마련했습니다.

이 법안은 지난달 주 상원을 통과했으며, 오는 8월 하원 표결을 앞두고 있습니다.

법안은 캘리포니아 소재 AI 관련 단체가 새로 신설되는 주 정부 기관에 생물학 또는 핵무기를 만들거나 사이버 보안 공격을 지원하는 등 "위험한 능력"을 가진 모델을 개발하지 않겠다고 약속하도록 했습니다.

개발자들은 또 안전 테스트 결과를 보고해야 하고 이른바 통제가 어려울 때 작동을 멈추게 하는 '킬스위치'(kill switch)를 도입해야 합니다.

이 법안을 발의한 스콧 위너(민주당) 의원은 "기본적으로 AI가 성공하고 혁신이 계속되기를 원하지만 안전상 위험에도 미리 대비해야 한다"고 말했습니다.

이어 "단지 거대모델을 훈련하는 개발자에게 큰 위험을 파악하고 합리적인 조치를 취하도록 하는 기본적인 안전 평가를 요청하는 부담스럽지 않은 법안"이라면서 AI 업계의 비판을 의식해 수정안을 마련 중이라고 전했습니다.

이 법안은 AI 스타트업들이 규정 준수에 따른 비용 부담 가중으로 캘리포니아주를 떠나게 하고 메타플랫폼 등도 AI 관련 오픈소스 모델을 운영하지 못할 것으로 해석되면서 AI 관련 기업들의 강력한 반발을 불러왔습니다.


[ 이나연 기자 / nayeon@mk.co.kr ]

[ⓒ 매일경제TV & mktv.co.kr, 무단전재 및 재배포 금지 ]

오늘의 이슈픽