2026년 3월 첫째 주, AI 업계에 조용하지만 깊은 파문이 일었다. OpenAI의 로보틱스 팀 시니어 멤버였던 Caitlin Kalinowski가 사직서를 제출했다. 그것도 단순한 이직이 아니라 공개적인 문제 제기와 함께. “내가 생각하는 선을 넘었다”는 말을 남기고.
그 선이 무엇인지 들어봤다면, 아마 AI 개발자로서 한 번쯤 뒤통수를 맞은 기분이 들 것이다.
OpenAI와 국방부, 무슨 계약을 맺었나
OpenAI는 2026년 3월 초, 미국 국방부(DoD)와 계약을 체결해 비밀 정부 네트워크에 AI 모델을 배포하기로 합의했다. 공식 발표 제목은 “Our agreement with the Department of War” — War. 국방부(Department of Defense)를 ‘전쟁부’라고 명시한 것이다. 의도적 선택인지 아닌지는 모르지만, 이 단어 하나가 많은 것을 함의한다.
계약의 구체적인 내용은 여전히 불투명하다. OpenAI는 일부 조항을 공개했지만 비판자들은 그것이 “의도적으로 모호하게 작성됐다”고 지적한다. 특히 문제가 된 조항은 두 가지다:
- 국내 감시(Domestic Surveillance) — 국방부 산하 각종 정보기관의 감시 활동에 OpenAI 모델이 사용될 수 있다는 가능성
- 치명적 자율성(Lethal Autonomy) — 인간의 직접 승인 없이 AI가 치명적 결정을 내릴 수 있는 여지
OpenAI 측은 공식적으로 “국내 감시도 없고 자율 무기도 없다(no domestic surveillance and no autonomous weapons)”고 선을 그었다. 하지만 내부에서는 그 말을 믿지 않는 사람들이 나왔다.
“이 선은 더 많은 숙고가 필요했다”
Kalinowski는 NPR과의 인터뷰에서 이렇게 말했다.
“사법적 감독 없는 미국 시민 감시, 인간 승인 없는 치명적 자율성은 — 내가 생각하기에 더 많은 숙고가 필요한 선이었다. 그 고민 없이 계약이 발표됐다.”
그녀는 리더십을 존중하지만, 원칙의 문제였다고 밝혔다. 사직 이후에도 “책임 있는 물리적 AI”를 계속 연구하겠다고 했다.
이것은 단순한 불만이 아니다. OpenAI 로보틱스 팀의 핵심 인물이 직접 “이건 아니다”라고 공개적으로 말한 것이다. 내부에서 반발이 없을 수 없었다.
98명의 연대 서명, 그리고 Altman의 반성
Kalinowski의 사직 이후, 98명의 OpenAI 직원들이 연대 서명에 참여했다. 동시에 약 796명의 구글 직원들도 Anthropic을 지지하는 내용의 서명을 했다. 경쟁사인 Anthropic이 국방부와의 협상에서 “자율 무기 제한 없이는 안 된다”는 입장으로 협상을 결렬시킨 것에 대한 지지였다.
CEO Sam Altman은 결국 공개적으로 실수를 인정했다.
“급하게 처리했다. 성급해 보였고 기회주의적으로 보였다. 좋지 않았다.”
그는 계약 내용을 수정해 감시 관련 제한을 명시적으로 추가했다. 하지만 비판자들은 여전히 “수정된 내용도 충분히 구체적이지 않다”고 지적하고 있다.
OpenAI 입장에서 이 사건은 단순한 PR 실수 이상이다. 회사가 만들어온 “안전하고 인류에게 이로운 AGI”라는 브랜드 정체성에 직접적인 균열이 생겼다.
Anthropic은 왜 같은 계약을 거절했나
흥미로운 건 Anthropic의 반응이다. Anthropic도 국방부와 협상 테이블에 앉았다. 하지만 협상은 결렬됐다. 국내 감시와 자율 무기에 대한 “강력한 제한을 명문화하는 것”에 국방부가 동의하지 않았기 때문이다.
결과적으로:
- OpenAI: 제한이 모호한 상태로 계약 체결 → 내부 반발 → Altman 사과
- Anthropic: 원칙 기반 협상 → 결렬 → 업계 내 신뢰 상승
AI 윤리를 실제 비즈니스 결정에 어떻게 적용하느냐의 차이가 이렇게 극명하게 갈린 사례다.
이 사건 이후 앱스토어에서 ChatGPT에서 Claude로 갈아타는 사용자가 증가했다는 보고도 있다. 기업 이미지가 사용자 선택에 직접 영향을 미친 것이다.
개발자에게 던지는 질문: 당신의 코드는 어디에 쓰이나
이 사건을 보면서 개발자로서 불편한 질문이 떠오른다. 우리가 작성하는 코드, 우리가 기여하는 오픈소스, 우리가 훈련시키는 모델이 어디에 어떻게 쓰이는지 우리는 얼마나 알고 있을까?
Kalinowski의 사직은 “나는 내 코드가 어디 쓰이는지 알고 싶고, 그 결정에 목소리를 내고 싶다”는 선언이기도 하다. 98명의 연대는 그 목소리가 혼자만의 것이 아님을 보여준다.
물론 현실적으로 대부분의 개발자는 대기업 안에서 주어진 스프린트를 소화하며 일한다. 계약의 윤리적 함의를 하나하나 검토할 위치에 있지도 않고, 그럴 권한도 없는 경우가 많다.
하지만 이 사건이 만들어낸 흐름은 중요하다. AI가 국가 안보, 감시, 무기에 직접 연결되는 시대가 왔다는 것. 그리고 그 연결고리를 만드는 것이 바로 개발자들이라는 것.
마치며
OpenAI의 Pentagon 계약은 “AI 군사화”의 시작을 알리는 신호탄이 됐다. 계약 자체보다 더 중요한 건 이후의 반응들이다. 직원이 사직하고, 사람들이 서명하고, 경쟁사와 비교되고, CEO가 사과하는 일련의 흐름은 AI 업계가 단순한 기술 경쟁을 넘어 윤리적 포지셔닝의 시대로 들어섰음을 보여준다.
다음 번 군사 AI 계약이 나왔을 때, 그리고 그것이 더 큰 규모로 벌어질 때, 업계가 어떤 기준을 들이댈지가 이미 이 사건으로 예고됐다.
당신이라면 Kalinowski처럼 사직할 수 있을까. 아니면 계약서에 도장을 찍는 팀에 남아 내부에서 목소리를 낼 것인가. 정답은 없지만, 이 질문을 한 번이라도 진지하게 생각해봤다면 이미 한 발짝 앞서 있는 것이다.
본 글은 정보 제공 및 학습 목적이며, 특정 종목에 대한 매수/매도 추천이 아닙니다. 투자 판단과 책임은 본인에게 있습니다.
Comments