소셜미디어 플랫폼 X가 전쟁 관련 인공지능 영상에 대한 새로운 규제를 도입했습니다.
제품 총괄 책임자는 공식 발표를 통해 “군사 충돌 상황을 담은 AI 제작 동영상을 올릴 출처를 명시하지 않으면 광고 수익 프로그램 참여가 90일간 정지된다”고 밝혔습니다. 번째 위반 시에는 영구 제외 조치가 내려집니다.
이용자들은 앞으로 AI로 만든 영상을 게시할 반드시 ‘AI 제작물’ 표시를 추가해야 합니다. 책임자는 “분쟁 상황에서 사람들은 정확한 사실을 권리가 있다”며 “인공지능 기술이 사람들을 현혹하는 콘텐츠를 너무 손쉽게 만들어낸다”고 설명했습니다.
플랫폼 측은 AI 메타데이터와 사용자 참여형 검증 시스템인 커뮤니티 노트를 통해 위반 게시물을 찾아낼 예정입니다. 다만 규정은 전쟁 영상에만 한정되며, 정치나 경제 관련 콘텐츠에는 적용되지 않습니다.
허위 정보 논란의 배경
이번 조치는 최근 X가 전쟁 관련 거짓 정보의 집결지가 되고 있다는 비판에 대응한 것으로 보입니다. 기술 전문 매체는 중동 지역 공습 직후 올라온 수백 건의 게시물을 분석한 결과, 상당수가 AI로 조작되었거나 사실과 다른 내용을 담고 있다고 지적했습니다.
공습 발생 시간 전투기 격추 영상이라며 올라온 게시물은 350만 이상 조회되었지만, 실제로는 해당 사건이 발생하지 않았습니다. 다른 계정은 항구 폭격 장면이라고 주장했지만, 실제로는 전혀 다른 지역의 과거 공격 영상이었습니다.
매체 분석에 따르면 거짓 정보를 퍼뜨린 대부분의 계정은 유료 인증 계정이었습니다. 이들은 조회수와 반응에 따라 수익을 받을 있어, 금전적 이득을 위해 허위 정보를 유포했을 가능성이 높습니다.
X는 새로운 경영진 체제로 전환된 이후 사실 검증 시스템을 완화하면서 가짜 뉴스 유포 플랫폼이라는 비판을 받아왔습니다. 자체 개발한 AI 챗봇도 과거 테러 사건 관련 질문에 완전히 잘못된 정보를 제공한 적이 있습니다.