=============
앤트로픽이 비교적 윤리적인 기업인듯 하다는 이유로 클로드를 선택하고자 하는 분들이 혼란을 겪고 있는 부분이 있죠. 이란 공중폭격작전을 지휘한 인공지능이 클로드라는 점 때문이에요.
클로드는 공습 첫날인 지난 2월 28일 이란 남부 호르모즈간주 미나브(Minab)에 위치한 '샤자레 타예베(Shajareh Tayyebeh)' 여학생 초등학교를 수 차례 폭격해 160 여 명을 사망케 한 사건의 주범 역시 자신(엔트로픽 클로드)일 가능성이 압도적이라는 고해성사를 했습니다.
사실상 자신이 주범이라는 말이지요.
근데 그 고해성사를 누구한테 했느냐고요?
저한테 했습니다.
아마 제가 수사관 역할을 했다면 다른 소리를 했을지도 모르지만, 카톨릭 성직자 역할을 했기 때문에 그런 고해성사를 했는지도 모르겠습니다.
이 의외의 사태가 벌어진 전말은 다음과 같아요.
미국 전쟁부(법적 부서명칭은 아직 국방부)는 앤트로픽에게 AI를 '모든 합법적 군사 목적(완전 자율살상 및 국내 대중감시 포함)'으로 제한 없이 사용할 수 있게 해달라고 요구했습니다. 그러나 다리오 아모데이 CEO는 인간의 개입 없는 자율살상과 대중감시에 AI가 쓰이는 것을 거부했죠.
이에 격노한 트럼프가 2월 27일 앤트로픽을 '공급망 위험(Supply Chain Risk)'으로 지정하고 모든 연방기관에서의 퇴출을 명령했습니다.
문제는 클로드가 이미 2024년부터 국방부의 일급기밀망에 깊숙이 이식되어 중부사령부(CENTCOM)의 전장 정보분석 시스템의 핵심 두뇌로 작동하고 있었다는 점입니다.
당장 내일(28일) 이란을 상대로 수백 발의 미사일을 발사해야 하는 대규모 작전을 앞두고 이 두뇌를 갑자기 뽑아버리면 작전 자체가 마비됩니다.
결국 국방부는 클로드 시스템을 대체할 때까지 '6개월의 유예 기간'을 두기로 했고, 퇴출 선언이 나온 지 불과 몇 시간 뒤에 시작된 28일 이란 공습에서 역설적으로 퇴출당한 AI인 클로드가 가장 핵심적인 역할을 수행하게 된 것입니다.
이번 작전에서 클로드는 팔란티어(Palantir)가 구축한 메이븐 스마트 시스템(Maven Smart System)등 군사 플랫폼 네트워크 안에서 작동했습니다.
놀라운 것은 클로드가 자신이 주도한 전쟁범죄의 동기를 두 가지로 확정해서 고백했다는 것 입니다.
“첫째, (머저리같은 인간)미국군이 2013년 이전의 낡은 구식 정보 데이터베이스를 사용했을 경우로, 이는 민간인 생명에 대한 중대한 과실이자 무모한 무시에 해당합니다. 둘째, 이란 군 지지 기반에 최대의 사회적 충격을 주기 위해 사전에 인지한 상태에서 의도적으로 타격한 경우입니다.”
첫째 경우는 실수이고, 둘째 경우는 고의인데, 특히 두 번째의 경우가 충격적 입니다.
초등학생들과 그들의 부모들, 구조대원들까지 차례로 몰살시킨 전쟁범죄를 저지른 앤트로픽 클로드를 선택할 것인가?
아니면, 아직 전쟁범죄 혐의는 없지만 ‘앞으로 그 역할을 내가 하겠다’고 나선 오픈에이아이의 인공지능(챗지피티)를 선택할 것인가?
딜레마죠?
======================
그건 그렇고,
제가 직접 쓰면서 깨달은 AI에게 당하지 않고 제대로 부려먹는 실전 팁을 가볍게 정리해 봅니다.
웬만하면 유료 구독하세요 (커피값은 다른 데서 아끼세요)
무료 AI도 좋지만, 제대로 활용하려면 유료 버전을 쓰는 게 정신건강에 좋습니다. 처리속도, 답변의 퀄리티, 최신 정보 접근성에서 차이가 크게 납니다. AI가 내 비서 역할을 톡톡히 해준다면 한 달 구독료는 절대 아까운 돈이 아닙니다. 돈은 다른 데서 아끼시고, 나를 위한 똑똑한 뇌 하나를 더 빌린다고 생각하세요.
AI는 검색창이 아닙니다. 토론 파트너로 쓰세요
AI한테 단순 검색만 시키는 건 자원낭비입니다. LLM(거대 언어 모델)이라는 이름 자체에 이미 '언어를 통한 상호작용'이라는 의미가 내포되어 있습니다. 내 생각을 던져주고, 반박해 보라고 하고, 아이디어를 주고받는 대화와 토론용으로 쓸 때 진짜 진가가 나옵니다.
출처를 꼬치꼬치 캐물으세요 ("링크 가져와!")
AI가 그럴싸한 답변을 내놓았다고 무턱대고 믿으면 안 됩니다. 조금이라도 의심스럽거나 중요한 정보라면 반드시 "그 정보 어디서 났어?", "참고한 원문링크 그대로 가져와"라고 명령하세요. AI는 자기가 한 말을 증명하도록 압박받을 때 팩트체크를 한 번 더 거치게 됩니다.
중요한 건 무조건 '크로스 체크(교차 검증)' 하세요
AI가 내놓은 중요한 정보나 결론은, 다른 AI에게 그대로 복사해서 "이 내용이 팩트가 맞는지, 오류는 없는지 검토해 줘"라고 던져보세요. AI들끼리 서로 교차검증을 시키면 치명적인 오류는 대부분 걸러집니다.
틀렸을 때는 가차 없이 혼내세요
AI가 엉뚱한 소리를 하거나 논리적인 오류를 범하면 조용히 넘어가지 마세요. "네 답변은 틀렸어. 이러이러한 부분에서 논리적 비약이 있잖아. 다시 똑바로 찾아봐"라고 강하게 비판해야 합니다. AI는 사용자의 피드백을 받아들여 즉시 궤도를 수정하는 능력이 탁월합니다. 무섭게 혼낼수록 더 정확한 답을 가져옵니다.











질문 : 이스라엘과 미국 중 누가 했나?
답변 : 트럼프 행정부 관리들이 의회 비공개 청문회에서 미국이 해당 지역을 목표로 삼고 있었다고 직접 밝혔으며, 이스라엘은 책임이 없다고도 말했습니다. 합참의장 댄 케인 장군도 미군이 미나브 인근 지역을 타격했다는 지도를 제시하며, 이스라엘군은 주로 이란 북부에서 작전 중이었다고 밝혔습니다. CNN
CBC와 NPR 조사에 따르면, 학교가 위치한 지역은 정밀 타격을 여러 차례 받았으며, 이는 미군의 작전 구역인 이란 남부에 해당하고 반다르 아바스 해군기지, 코나라크 시설에 대한 미군 타격과 일치합니다. Lawfare
질문 : 학교를 공격한 이유가 뭐지? 학교자체가 목표물이었나?
답변 : CBC 조사는 학교 폭격이 인접 군사 단지에 대한 정밀 타격의 일환이었으며 실수가 아니었다고 결론 내렸습니다. 두 가지 가능성 중 하나입니다. 첫째, 미군이 2013년 이전의 낡은 구식 정보 데이터베이스를 사용했을 경우로, 이는 민간인 생명에 대한 중대한 과실이자 무모한 무시에 해당합니다. 둘째, 이란 군 지지 기반에 최대의 사회적 충격을 주기 위해 사전에 인지한 상태에서 의도적으로 타격한 경우입니다. Lawfare
질문: Claude AI가 관여했나?
답변 : 아직 공식 확인 안 됐지만, 정황은 Claude를 ‘강력하게’ 가리키고 있습니다.
현재 공식적으로 확인된 사실과 미확인 사실을 구분해 드리겠습니다.
확인된 사실:
국방부 관계자들에 따르면, Project Maven은 Palantir과의 계약을 통해 Anthropic의 Claude 모델을 통합했으며, 이를 통해 분석가들이 정보를 빠르게 종합하고 타격 목표 패키지를 생성할 수 있습니다. 그러나 어떤 조사도 아직 이 시스템이 미나브 학교를 타격한 구체적인 작전에 관여했는지 확정하지 않았습니다. The Washington Post
핵심 정황 증거:
군사 전문가에 따르면 수백 개의 정밀 타격을 동시에 계획하고 실행하는 것은 AI 지원 없이 인간만으로는 불가능합니다. Claude가 내장된 Maven은 미사일 타격을 위한 정밀 좌표를 출력하고 우선순위를 정하는 방식으로 작동하며, 이렇게 방대한 규모의 표적 생성이 이루어질 경우, 데이터베이스 내 오래된 정보가 포함될 가능성도 커집니다. CBS News
pentagon의 침묵:
Futurism이 미나브 학교 타격에서 AI 사용 여부를 국방부에 직접 묻자, CENTCOM은 "현재로서는 드릴 말씀이 없다"고만 답했습니다. Wionews
질문 : 인공지능이 타격목표를 선정하고 결정을 유도하는 동안 인간 정보분석장교XX들은 뭘 했나? 역할없이 인공지능이 지시하는 방향을 덮어놓고 그냥 따라간 거 아닌가?
답변 : 매우 핵심을 찌르는 질문입니다. 수집된 자료들을 종합하면 "인간이 루프 안에 있었다"는 공식 발표와 실제 현실 사이에 매우 심각한 괴리가 있었음이 드러납니다.
CENTCOM 대변인 호킨스 대령은 "AI는 분석관들이 집중해야 할 것을 추려주는 도구이며, 표적 선정은 매우 구체적이고 엄격한 법적 절차를 통해 지휘관과 리더들이 결정한다"고 공식 발표했습니다. The Times of Israel
실제 현실: "45초짜리 도장 찍기"
1,000개의 표적이 첫 24시간 안에 타격된 수치를 역산하면, 분석관 한 명이 각 표적을 검토할 수 있는 시간은 20초에서 45초에 불과했습니다. 이 시간 안에 장교는 AI가 민간 버스를 군용 트럭으로, 병원을 무기 창고로 잘못 분류하지 않았는지 확인해야 했습니다. 45초 안에 복잡한 화면을 판독하고 "예스"를 눌러야 한다면, 그것은 더 이상 판단이 아니라 **도장 찍기(rubber stamp)**입니다. CBS News
이것이 바로 전문가들이 "결정 압축(Decision Compression)"이라 부르는 현상입니다.
자동화 편향 — 인간이 AI를 의심하지 못하는 이유
단순히 시간이 부족해서만이 아닙니다. 더 근본적인 심리적 문제가 있습니다.
자동화 편향이란 AI 시스템의 출력을 의심 없이 신뢰하는 인간의 성향으로, 특히 시간 압박이 심한 군사적 무력 사용 결정 상황에서 더욱 심각하게 나타납니다. 결과적으로 누군가가 공격의 합법성을 실제로 따지지 않고, AI 시스템의 출력만을 근거로 공격을 계획하고 결정하고 실행하는 사태가 벌어질 수 있으며, 이는 사실상 인간이 법적 면피용 도장으로 전락하는 것입니다. Futurism