Skip to main content

Nosso ouvido não é penico e a Activision resolveu tomar uma atitude para combater comentários tóxicos e ofensivos no chat de voz de Call of Duty: IA. Uma Inteligência Artificial irá monitorar as conversações em tempo real e detectar conteúdo nocivo. O sistema já entrou em fase beta de operações na América do Norte, nos servidores de Call of Duty: Modern Warfare II e Warzone. A partir de 10 de novembro, com o lançamento de Modern Warfare III, a funcionalidade será ativada mundialmente (exceto Ásia). Entretanto, os algoritmos foram programados somente para reconhecer o idioma Inglês e suporte adicional a outras línguas virá depois.

Michael Vance, diretor de tecnologia da Activision, explicou a estratégia: “nunca há lugar para comportamento perturbador ou assédio em jogos. Lidar com bate-papos de voz perturbadores em particular tem sido um desafio extraordinário em jogos. Com esta colaboração, estamos agora trazendo a tecnologia de aprendizado de máquina de última geração Modulate, que pode ser dimensionada em tempo real para um nível global de fiscalização”.

Call of Duty sofre de um problema crônico de toxicidade

De acordo com a produtora, desde o lançamento de Modern Warfare II, foi detectado algum tipo de comportamento tóxico em mais de um milhão de contas, violando o código de conduta do jogo, seja no texto de chat ou mesmo no nome dos usuários. A Activision alega que 20% dos jogadores não repetiram a infração depois da primeira advertência.

Entretanto, para os reincidentes, a regra é dura, com punições que variam desde a restrição de funcionalidades na conta até o banimento. Atualmente, o time de moderação de Call of Duty trabalha com ferramentas que oferecem suporte a filtragem de texto em 14 linguagens diferentes.