최신 AI 모델들이 속속 등장하는 가운데, 정작 가장 중요한 ‘안전성 정보’는 비워진 채 시장에 공개되는 일이 반복되고 있다. 구글과 오픈AI가 최근 출시한 최상위 인공지능 모델에 대해 안전 보고서를 누락하거나 수 주가 지나서야 제한적으로 공개하는 행태가 잇따르면서, AI 책임성과 투명성 문제가 다시 불거지고 있다.
![]() [코리안투데이] 기사와 관계없는 사진.(출처=freepik.com) © 변아롱 기자 |
17일(현지시간) 구글은 ‘제미나이 2.5 프로’에 대한 기술적 안전 보고서를 공개했다. 이 모델은 이미 지난 3월 26일에 출시된 상태로, 공개 시점과 보고서 발간 사이에 3주 이상 공백이 발생한 셈이다.
하지만 공개된 보고서 내용도 전문가들의 기대에 크게 못 미쳤다. AI 정책 전문가 피터 윌더퍼드는 “보고서에 핵심적인 수치나 위험성 분석이 빠져 있다”며 “구글이 스스로 내세운 ‘프론티어 세이프티 프레임워크(FSF)’에 따른 자가 검증 기준조차 명시되지 않았다”고 비판했다.
구글은 공식적으로 “실험 단계에서 벗어난 모델에만 보고서를 제공한다”는 입장을 고수하고 있으며, 모든 평가 결과를 한 번에 공개하지 않고 일부만 선택적으로 공개하는 방식을 유지하고 있다. 문제는 이 같은 안전 평가 생략 혹은 지연이 AI 기술의 위험성과 확산 속도에 비해 지나치게 느리고 불투명하다는 데 있다.
대표적으로 구글은 지난 2년간 미국과 유럽 규제당국에 “공공 AI 모델에 대한 안전 보고서를 정기적으로 제출하겠다”고 약속했지만, 실제로는 모델 출시 이후 수주가 지나서야 평가 자료를 공개하고 있다. 최근 출시된 ‘제미나이 2.5 플래시’에 대한 안전 문서는 여전히 공개되지 않은 상태다.
오픈AI 역시 비슷한 비판을 받고 있다. 지난주 발표한 GPT-4.1 모델에 대해서는 아예 시스템 카드 자체를 누락했다. 이에 대해 오픈AI 대변인 샤오키 암도는 “GPT-4.1은 프런티어 모델이 아니기 때문에 시스템 카드 공개 의무가 없다”고 설명했다. 그러나 GPT-4.1은 API를 통해 100만 토큰 컨텍스트 창, 고속 코딩 처리 능력 등 고성능 기능을 제공하는 상용 모델이다. 규모나 활용도를 감안할 때, 사용자의 오용 가능성을 고려한 최소한의 안전 지표조차 제공되지 않는 것은 책임 회피로 해석될 수 있다는 지적이 나온다.
전직 오픈AI 안전팀 연구원 스티븐 애들러는 “시스템 카드는 법적 의무가 아니라 자발적 기준”이라고 말했다. 즉, 공개하지 않아도 처벌받지 않는 구조가 지금의 투명성 부족을 초래하고 있다는 분석이다.
이 같은 상황은 AI 안전 규제의 법제화 필요성을 다시금 부각시키고 있다. 2023년 캘리포니아에서 발의된 ‘SB 1047’ 법안은 AI 개발자에게 안전성 보고서 공개 의무를 부과하는 내용을 담고 있지만, 구글과 오픈AI는 이를 반대해 온 대표 기업이다. AI 시민 안전 프로젝트의 토머스 우드사이드는 “기술이 정교해질수록 위험 평가도 더 정교해져야 한다”면서, “모델을 만드는 기업들이 기준과 책임도 함께 설계해야 한다”고 강조했다.
현재 AI 기술은 수십억 인구의 커뮤니케이션, 창작, 검색, 보안, 교육 환경에 영향을 주고 있다. 그러나 그 기반 기술이 어떤 위험을 내포하고 있는지, 어떤 상황에서 오작동하는지는 여전히 일부 기업의 재량에 맡겨진 채 베일에 싸여 있다.
AI는 더욱 똑똑해지고 있지만, 우리는 여전히 그것이 안전한지조차 알 수 없는 현실이다.
<저작권자 ⓒ 코리안투데이(The Korean Today) 무단전재 및 재배포 금지>