A Rockstar Games acaba de anunciar uma parceria com a Modulate, desenvolvedora do ToxMod, uma plataforma de moderação de voz proativa.
O objetivo, de acordo com a empresa é claro: reduzir a toxicidade e combater comentários ofensivos no jogo, garantindo um ambiente mais saudável para os milhões de jogadores que exploram o mundo virtual de Los Santos.
Com o tamanho gigantesco da comunidade de GTA Online, a moderação tradicional, baseada em denúncias feitas pelos jogadores, muitas vezes não consegue responder rapidamente a situações problemáticas.
O que é o ToxMod que será usado pela Rockstar Games?
É aí que entra o ToxMod, uma solução baseada em machine learning que monitora conversas de voz em tempo real para identificar e sinalizar comportamentos nocivos, como assédio e discursos de ódio.
O ToxMod é capaz de diferenciar interações casuais, como “trash talk” (provocações entre jogadores), de ações intencionais que busquem ofender ou prejudicar outros jogadores. A ferramenta então alerta os moderadores, que podem intervir rapidamente antes que a situação se agrave.
Para implementar o ToxMod, a Rockstar Games ajustou a ferramenta para refletir as Diretrizes da Comunidade específicas de GTA Online. Isso garante que as ações de moderação estejam alinhadas com as regras estabelecidas pela empresa, ao mesmo tempo em que incentivam comportamentos positivos.
Confira também: Nintendo Switch 2 | Imagens do console foram acidentalmente vazados em publicidade
Gosta do Portal Viciados? Contamos com o seu apoio! Para receber atualizações, siga-nos no Google Notícias. Também faça parte da discussão no Facebook, Twitter (X) e Instagram!
Fonte: modulate.ai