오픈 이슈 갤러리 같이 보고 싶은 유머 글이나 이미지를 올려보세요!
URL 입력
-
계층
폐지 줍줍
[5]
-
계층
ㅇㅎ) 그때 그 영상 다른 각도.ver
[48]
-
감동
한 학번 위 누나랑 결혼 한 썰.
[18]
-
유머
코스피 갤러리 대문
[13]
-
유머
사우디 형들이 한국물건 스펙 사기 당함
[14]
-
계층
ㅇㅎ)키큰여자가 남자 꼬시는 법
[49]
-
계층
내가 바라는 부부상
[12]
-
연예
넷플릭스 대환장 기안장 시즌2 출연진라인업
[16]
-
계층
전통시장 상인들 인심 근황
[21]
-
유머
1박 2일 시청률 41% 넘었었던 명장면
[23]
이미지 업로드중입니다
(1/5)
URL 입력
ㅇㅇㄱ 지금 뜨는 글
- 계층 ㅇㅎ) 의외로 남자들이 좋아한다는 몸매 [21]
- 계층 극혐) 티눈갤 근황 [25]
- 계층 ㅇㅎ) 촉촉보 눈나의 기타 실력 [16]
- 이슈 네이버 부동산에 올라왔던 잼통 집 매물 [11]
- 유머 은근히 무섭다는 등산 코스 [27]
- 이슈 이재명 대통령 : 2 28 큰거온다 [25]
|
2026-02-27 07:20
조회: 5,128
추천: 0
클로드, Ai 안전약속 철회![]() 핵심 사실: Anthropic의 RSP(책임 있는 확장 정책) 변경 이 뉴스는 2026년 2월 24일 Anthropic이 공식 발표한 ‘Responsible Scaling Policy(RSP) Version 3.0’ 개정에 관한 것으로, TIME의 독점 보도를 통해 처음 알려졌습니다. 무엇이 삭제되었나? 2023년 RSP v1.0에서 Anthropic은 명확히 이렇게 약속했습니다: “The ASL system implicitly requires us to temporarily pause training of more powerful models if our AI scaling outstrips our ability to comply with the necessary safety procedures.” (AI 역량이 안전 절차 이행 능력을 초과하면 더 강력한 모델 훈련을 일시 중단해야 한다) 그러나 2026년 2월 24일 발효된 RSP v3.0에서 이 “훈련 중단(pause)” 조항이 완전히 삭제되었고, 대신 ‘투명한 위험 보고’, ‘프론티어 안전 로드맵 공개’ 같은 연성 약속으로 대체되었습니다. 공식 이유: 경쟁 논리 Anthropic 최고과학책임자(CSO) Jared Kaplan이 TIME과의 독점 인터뷰에서 직접 밝힌 내용입니다:[time] • “We felt that it wouldn’t actually help anyone for us to stop training AI models” • “We didn’t really feel… that it made sense for us to make unilateral commitments if competitors are blazing ahead” RSP v3.0 문서에도 다음과 같이 명시되어 있습니다: If one AI developer paused development to implement safety measures while others moved forward… that could result in a world that is less safe—the developers with the weakest protections would set the pace.” 배경: 규제 공백과 경쟁 심화 이미지의 ①②③ 딜레마는 다음 실제 정황에 근거합니다: • 법적 규제 부재: 트럼프 행정부가 AI 개발 자유화 기조를 채택, 주정부 규제까지 무효화 시도. 연방 AI 법안도 전무 • 경쟁사 질주: OpenAI, Google, xAI 등은 국방부용 안전장치 해제에 동의하며 군사 계약 체결 • 과학적 한계: Anthropic 스스로도 자사 모델이 바이오테러를 가능케 하는지 확실히 부정하지 못하는 상황에 직면 추가 맥락: 미 국방부 압박 이 정책 변경 직전, 미 국방부(Pete Hegseth 장관)가 Anthropic에 **“군사적 사용 제한 조항을 철회하지 않으면 2억 달러 계약을 파기하겠다”**고 경고한 사실도 확인됩니다. 이는 외부 압박이 정책 결정에 영향을 미쳤을 가능성을 시사합니다. This is more evidence that society is not prepared for the potential catastrophic risks posed by AI… the change may enable a ‘frog-boiling’ effect, where danger slowly ramps up without a single moment that sets off alarms.” 또한 AI 안전 시민단체 Transparency Coalition은 이 결정을 두고 “제품 안전법이 왜 필요한지를 보여주는 사례—자발적 약속만으로는 시장 경쟁 압력을 이길 수 없다”고 비판했습니다. 타임 독점인터뷰 출처https://time.com/7380854/exclusive-anthropic-drops-flagship-safety-pledge/ 국방부 압박에 대해서는 조선일보 기사밖에 없군요 https://www.chosun.com/economy/tech_it/2026/02/25/E26IH3YJ4NFQBOFVTQLC6QFCRY/
EXP
358,662
(94%)
/ 360,001
"만일 당신의 행동이 다른 사람들로 하여금 더 꿈꾸고, 배우고, 행동하고, 성장하게 한다면, 당신은 분명 지도제작자일 거야."
|

전승지기초