핵심 사실: Anthropic의 RSP(책임 있는 확장 정책) 변경
이 뉴스는 2026년 2월 24일 Anthropic이 공식 발표한 ‘Responsible Scaling Policy(RSP) Version 3.0’ 개정에 관한 것으로, TIME의 독점 보도를 통해 처음 알려졌습니다.

무엇이 삭제되었나?
2023년 RSP v1.0에서 Anthropic은 명확히 이렇게 약속했습니다:

“The ASL system implicitly requires us to temporarily pause training of more powerful models if our AI scaling outstrips our ability to comply with the necessary safety procedures.”
(AI 역량이 안전 절차 이행 능력을 초과하면 더 강력한 모델 훈련을 일시 중단해야 한다)

그러나 2026년 2월 24일 발효된 RSP v3.0에서 이 “훈련 중단(pause)” 조항이 완전히 삭제되었고, 대신 ‘투명한 위험 보고’, ‘프론티어 안전 로드맵 공개’ 같은 연성 약속으로 대체되었습니다.

공식 이유: 경쟁 논리
Anthropic 최고과학책임자(CSO) Jared Kaplan이 TIME과의 독점 인터뷰에서 직접 밝힌 내용입니다:[time]
• “We felt that it wouldn’t actually help anyone for us to stop training AI models”
• “We didn’t really feel… that it made sense for us to make unilateral commitments if competitors are blazing ahead”
RSP v3.0 문서에도 다음과 같이 명시되어 있습니다:

If one AI developer paused development to implement safety measures while others moved forward… that could result in a world that is less safe—the developers with the weakest protections would set the pace.”

배경: 규제 공백과 경쟁 심화
이미지의 ①②③ 딜레마는 다음 실제 정황에 근거합니다:
• 법적 규제 부재: 트럼프 행정부가 AI 개발 자유화 기조를 채택, 주정부 규제까지 무효화 시도. 연방 AI 법안도 전무
• 경쟁사 질주: OpenAI, Google, xAI 등은 국방부용 안전장치 해제에 동의하며 군사 계약 체결
• 과학적 한계: Anthropic 스스로도 자사 모델이 바이오테러를 가능케 하는지 확실히 부정하지 못하는 상황에 직면

추가 맥락: 미 국방부 압박
이 정책 변경 직전, 미 국방부(Pete Hegseth 장관)가 Anthropic에 **“군사적 사용 제한 조항을 철회하지 않으면 2억 달러 계약을 파기하겠다”**고 경고한 사실도 확인됩니다. 이는 외부 압박이 정책 결정에 영향을 미쳤을 가능성을 시사합니다.

This is more evidence that society is not prepared for the potential catastrophic risks posed by AI… the change may enable a ‘frog-boiling’ effect, where danger slowly ramps up without a single moment that sets off alarms.”

또한 AI 안전 시민단체 Transparency Coalition은 이 결정을 두고 “제품 안전법이 왜 필요한지를 보여주는 사례—자발적 약속만으로는 시장 경쟁 압력을 이길 수 없다”고 비판했습니다.


타임 독점인터뷰 출처https://time.com/7380854/exclusive-anthropic-drops-flagship-safety-pledge/

국방부 압박에 대해서는 조선일보 기사밖에 없군요 https://www.chosun.com/economy/tech_it/2026/02/25/E26IH3YJ4NFQBOFVTQLC6QFCRY/