20.000 usuarios tóxicos han sido detectados y expulsados en Counter-Strike gracias a la IA
El sistema Minerva ha reducido en seis semanas el volumen de mensajes tóxicos en un 20%, mejorando el ambiente del juego.Unos 20.000 usuarios han sido expulsados de Counter-Strike: Global Offensive en las últimas seis semanas. Esto se debe a la introducción de un sistema de inteligencia artificial para detectar comentarios ofensivos en el juego que se basa en el análisis de los mensajes que emplean en el sistema de chat textual del tÃtulo.Este sistema se llama Minerva y ha sido gestado por FACEIT, un grupo especializado en juego en lÃnea que organizó importantes eventos en torno al juego y que ha colaborado con Google Cloud y otros servicios, como Jigsaw, una incubadora tecnológica de Google.Minerva tuvo una fase de análisis preliminar en agosto, y desde entonces ha detectado rápidamente 7 millones de mensajes tóxicos, ha emitido 90.000 advertencias y ha impuesto 20.000 expulsiones a jugadores.El sistema se centró inicialmente en las advertencias por mensajes tóxicos a usuarios oque abusaban del sistema acosando a otros jugadores. También empezó a detectar spam. Al detectar esos mensajes, valora cómo proceder, pues puede imponer expulsiones o mandar advertencias. El sistema valora si se trata de reincidentes para determinar el tipo de castigo en cada ocasión.Los resultados son positivos: los mensajes tóxicos se han reducido un 20% en su volumen total, y un 8% de los usuarios que los enviaban han dejado de hacerlo.Para conseguir estos resultados, se trabajÃ...
-------------------------------- |
World of Tanks mejoras en Xbox One X | Tráiler |
|
-------------------------------------