사용자 급증으로 서비스 일시 중단
인공지능 기업 앤트로픽의 ‘Claude’ 앱이 너무 많은 사람들이 몰리면서 잠시 멈춰 섰다는 소식이 전해졌다. 이렇게 폭발적인 관심을 받게 배경에는 회사가 고집스럽게 지켜온 ‘안전 우선’ 철학이 있었다.
미국 국방부가 모든 군사 목적으로 Claude를 쓰게 해달라고 요구했지만, 회사는 이를 거절했다. 그런데 아이러니하게도 베네수엘라와 이란 작전에서 Claude가 실제로 활용되면서 성능이 증명되자 더욱 주목받게 되었다.
스스로 판단하고 검증하는 학습 방식
Claude가 전쟁터에서 선택받은 핵심 이유는 독특한 학습 방식 때문이다. 앤트로픽은 처음부터 인공지능이 지켜야 안전 규칙(헌법)을 만들어 입력했다. 그리고 사람이 일일이 가르치는 대신, AI 스스로 자신의 답변을 점검하고 고치도록 훈련시켰다.
기존 AI들은 사람이 직접 가르치는 방식이어서 가르치는 사람의 편견이 섞이거나 일관성이 떨어질 있다. 하지만 Claude는 다음과 같은 원칙을 스스로 지키도록 설계되었다:
• 인권을 존중할 것
• 증오나 폭력을 부추기지 것
• 해로운 행동은 거부할 것
• 민주주의를 해치는 일을 경계할 것
한국전자통신연구원 AI안전연구소장은 “Claude는 신뢰성 평가에서 항상 1위를 차지한다. 민감한 정보를 알고 있어도 위험한 상황에서는 협력하지 않는다”고 설명했다.
기술적 호환성과 보안 우위
Claude가 미군이 오래 사용해온 아마존웹서비스(AWS)와 맞는다는 점도 장점이다. AWS는 2010년대 중반부터 미국 정보기관 국방부와 협력하며 최고 등급의 보안 인증을 받았다. 앤트로픽과 AWS는 긴밀한 투자 관계를 맺고 있어, Claude를 군사용으로 안전하게 통합하기 쉽다.
논란 소비자들의 선택
앤트로픽 CEO가 “자국민 감시나 대량살상 무기에 Claude를 쓰면 된다”고 선언한 후, 미국 정부는 회사를 ‘위험 기업’으로 지정했다. 하지만 소비자들의 반응은 정반대였다.
Claude는 앱스토어에서 ChatGPT를 제치고 1위에 올랐다. 무료 사용자는 1월 이후 60% 이상 늘었고, 유료 구독자는 올해 들어 2배로 증가했다.
한편 OpenAI는 Claude가 빠진 자리에 ChatGPT를 넣는 계약을 국방부와 체결했지만, 직원 880여 명이 “우리 모델을 감시와 살상에 쓰지 말라”는 성명을 내며 반발했다. 이에 CEO는 “대중 감시 금지 조항을 계약에 추가하는 작업을 진행 중”이라고 밝혔다.