디스코드
(Discord)가 3월 초부터 전 세계적으로 새로운 연령 인증 시스템을 도입한다. 이번 업데이트로 모든 사용자는 기본적으로 '청소년 적합 환경'으로 설정되며, 성인 콘텐츠와 연령 제한 공간에 접근하려면 인증 절차를 거쳐야 한다.


디스코드는 게이머들 사이에서 널리 사용되는 메신저 및 커뮤니티 플랫폼으로, 텍스트, 음성, 영상 채팅 기능을 제공하며 전 세계적으로 수억 명의 사용자를 보유하고 있다. 이번 안전 강화 조치는 소통 설정, 연령 제한 공간 접근 제한, 콘텐츠 필터링을 포함한다. 성인으로 인증되지 않은 사용자는 민감한 콘텐츠가 흐릿하게 표시되며, 연령 제한이 있는 채널, 서버, 앱 명령어 사용이 차단된다. 또한 모르는 사용자로부터의 다이렉트 메시지와 친구 요청은 별도의 수신함으로 분류된다.


성인 사용자가 이러한 제한을 해제하려면 출시 시점에 두 가지 인증 방법 중 하나를 선택해야 한다. 셀카 영상을 통한 연령 추정 방식이거나, 정부 발급 신분증을 디스코드의 협력 업체에 제출하는 방식이다. 디스코드는 연령 추정을 위해 제출한 영상 셀카는 기기를 떠나지 않으며, 협력 업체에 전송된 신분증 문서는 "대부분의 경우 연령 확인 직후" 즉시 삭제된다고 강조했다.


디스코드는 대부분의 사람들에게 이 과정이 일회성으로 끝날 것이라고 밝혔지만, 일부 사용자는 여러 형태의 인증을 제출해야 할 수도 있다. 또한 향후 백그라운드에서 실행되는 연령 추론 모델을 포함한 추가 인증 옵션이 제공될 예정이다.


이번 조치는 디스코드가 아동 안전 강화를 위해 시행하는 여러 시도 중 하나다. 2023년에는 청소년 데이트 채널과 AI로 생성된 아동 성착취물(CSAM)을 금지했다. 같은 해 후반에는 콘텐츠 필터와 자동 경고 시스템을 추가했다. 이러한 변화는 NBC 뉴스가 디스코드 커뮤니케이션과 관련된 "납치, 그루밍 또는 성폭행" 혐의로 35명의 성인이 기소되었다고 보도한 이후 이루어졌다.


오늘 발표된 변경사항과 함께 디스코드는 새로운 '청소년 위원회(Teen Council)' 구성원을 모집하고 있다. 이 그룹은 13세에서 17세 사이의 청소년 10~12명으로 구성될 예정이다. 디스코드는 "이를 통해 청소년들이 무엇을 필요로 하는지, 어떻게 의미 있는 관계를 구축하는지, 온라인에서 무엇이 그들을 안전하고 지지받는다고 느끼게 하는지를 추측이 아닌 이해할 수 있게 될 것"이라고 설명했다.

아동 안전 관련 변경사항은 3월 초부터 전 세계적으로 순차 적용될 예정이며, 신규 사용자와 기존 사용자 모두 성인 콘텐츠 접근을 위해 인증을 제출해야 한다.


소스: https://www.engadget.com/social-media/discord-will-soon-require-age-verification-to-access-adult-content-140000218.html