자료제공 - 로블록스

로블록스(Roblox)는 17일 글로벌 플랫폼으로서 안전한 이용 환경을 조성하기 위해 Google, OpenAI, Discord 등과 함께 ROOST(Robust Open Online Safety Tools)의 설립 파트너로 참여한다고 밝혔다.


ROOST는 AI 시대에 적합한 확장 가능하고 상호 운용 가능한 안전 기능을 구축해 디지털 안전과 온라인 아동 보호를 위한 기술을 개발하는 비영리 단체다. Roblox는 ROOST 기술 자문 위원회의 공동 의장으로 활동하며, 인터넷 전반의 안전 강화를 위한 연구 및 기술 발전에 기여할 계획이라고 전했다.

로블록스는 인프라, AI, 인력 등에 대한 지속적인 투자를 통해 사용자 보호 시스템을 운영하고 있다. 2024년 4분기 동안 사용자들이 업로드한 비디오, 오디오, 텍스트, 음성 채팅, 아바타, 3D 체험 등 3,000억 개 이상의 콘텐츠 가운데 0.01%만이 정책을 위반한 것으로 감지됐으며, 이 중 대부분은 사전에 검열됐다.

현재 로블록스는 하루 40억 개 이상의 텍스트 메시지와 수백만 시간의 음성 데이터를 분석하며, AI를 활용해 정책 위반 콘텐츠를 감지하고 대규모 검열을 수행하고 있다.

ROOST의 이사회 엘리 슈거먼 부회장은 “로블록스와 같은 글로벌 플랫폼이 ROOST에 합류하는 것은 중요한 기회”라며 “온라인 커뮤니티 보호를 위한 협력이 더욱 확대될 것으로 기대된다”고 말했다.

로블록스는 ROOST의 설립 파트너로서 오픈 소스 기술 공유를 확대할 계획이다. 2023년 공개된 음성 안전 분류 모델은 하루 수백만 분의 음성 데이터를 분석하며, 정책 위반 감지 정확도를 향상시키는 데 기여하고 있다. 해당 모델은 현재 7개 언어(한국어 포함)를 지원하며, 2025년 1분기 말까지 개선된 버전을 공개할 예정이다.

로블록스는 ROOST 커뮤니티와 협력해 온라인 안전 강화를 위한 연구를 지속하며, 기술 개발과 정책 이행 방안을 논의해 나갈 계획이다.

ROOST는 로블록스 및 기타 온라인 플랫폼의 안전성을 높이기 위해 세 가지 핵심 영역을 연구한다.

1. 아동 보호 강화 - 아동 성적 학대 자료(CSAM) 분류 기술 개발
2. 안전 인프라 개선 - 검토 콘솔, 휴리스틱 엔진, 교육 사례 수집, 통계적 샘플링 등을 통해 검열 시스템 강화
3. AI 기반 콘텐츠 관리 - 정책 이행을 위한 AI 활용을 통해 검열 시스템의 자동화 및 효율성 제고