출처 - 링크




라이엇 게임즈가 <리그 오브 레전드>의 채팅을 자동으로 판별해 악성 유저를 처벌하는

시스템을 테스트하고 있다. 


22일, 외신들은 라이엇게임즈가 해당 기능을 <리그 오브 레전드> 북미 서버에서

테스트하고 있다고 보도했다.

 

라이엇게임즈가 테스트하고 있는 기능은 채팅 로그를 자동으로 분석하는 시스템이다. 


이런 채팅 분석은 악성 유저를 걸러내 처벌하고, 결과적으로 게임 내 욕설이나

인종 차별, 성 차별, 살해 위협 등 언어 폭력을 줄이기 위한 목적이다.




이 시스템이 원하는대로 적용되면 과연 욕설이 없어질 수 있을까요?