El nuevo software Bleep de Intel utiliza inteligencia artificial para censurar el discurso de odio

¿Alguna vez has querido censurar un poco de discurso de odio mientras juegas, pero no todo? Gracias a Bleep de Intel, un software que usa IA para censurar el chat de voz, puedes hacerlo.

Bleep se desarrolló en asociación con una empresa llamada Spirit AI, y actualmente se encuentra en fase beta siguiendo un prototipo desarrollado hace dos años. Utiliza IA para censurar el discurso de odio en tiempo real durante el juego. El software emite un pitido en el lenguaje ofensivo (de ahí el nombre). La versión más reciente de la tecnología se mostró durante un evento que destacó los últimos desarrollos de Intel. Durante esta presentación, Roger Chandler, vicepresidente y gerente general de productos y soluciones XPU del cliente, posicionó a la empresa como «administradores» de los juegos de PC que sienten cierta responsabilidad en hacer avanzar la plataforma y «mejorar los juegos».

Intel habló con los jugadores sobre sus necesidades, dijo el portavoz, que incluía abordar lo que la compañía llamó «el lado oscuro de los juegos»: la toxicidad en línea.

“En todos los ámbitos, y en todo el mundo, los jugadores expresaron su preocupación por presenciar y experimentar toxicidad”, dijo, antes de compartir algunas estadísticas sobre la frecuencia con la que los jugadores experimentan acoso en línea. Según la Liga Anti-Difamación, «el 22% de los jugadores han dejado de jugar ciertos juegos como resultado de estas experiencias negativas».

Para solucionar el problema, Intel creó Bleep. Y aunque el programa no es nuevo, se convirtió en el centro de atención cuando imágenes fijas de la presentación de video de 40 minutos se volvió viral el miércoles. La captura de pantalla muestra la configuración del usuario para el software y muestra una escala móvil en la que las personas pueden elegir entre «ninguna, algunas, la mayoría o todas» de las categorías de incitación al odio, como «racismo y xenofobia» o «misoginia». También hay un interruptor para la palabra N.

«La intención de esto siempre ha sido poner ese control matizado en las manos de los usuarios», dijo a Gameslatam Marcus Kennedy, gerente general de la división de juegos de Intel, a través de un chat de video. Como Kennedy se lo explicó a Gameslatam, Intel tenía la intención de que esos controles deslizantes brindaran opciones a los jugadores, según la situación. Ciertos tipos de charlas de mierda pueden ser aceptables, incluso divertidas, cuando se comparten entre amigos, pero pueden no ser aceptables cuando un extraño te grita.

Cuando se le preguntó si la diferencia entre las categorías de control deslizante «ninguna, algunas, la mayoría o todas», Kim Pallister, gerente general del equipo de soluciones de juegos de Intel, dijo que es «complicada».

«Si tuvieras un filtro de blasfemias, con sensibilidad y alguien dijera ‘fudge’ y la palabra se cortara brevemente, el control deslizante máximo lo haría sonar», dijo Pallister, ofreciendo un ejemplo hipotético.

Intel también aclaró que la tecnología no era definitiva y que podría cambiar entre ahora y el lanzamiento. Aún así, la idea de que la gente estaría de acuerdo con algunos, pero no mucho discurso de odio resultó absurda para la gente en línea. Entonces, como resultado, la gente ahora está haciendo un montón de memes y bromas que menosprecian la configuración del menú. Uno tuitear chistes, «Computadora, hoy me siento un poco misógino».

El problema de las redes sociales es desafortunado, dado que Bleep podría ser una pieza de tecnología útil en el futuro para aquellos que están constantemente recibiendo comentarios de odio. Intel reconoce al final de la presentación que, «aunque soluciones como Bleep no borran el problema, creemos que es un paso en la dirección correcta».

En declaraciones a Gameslatam, Kennedy sugirió que es posible que una captura de pantalla no capture la experiencia de uso del producto.

“Creo que antes de ver las reacciones al video, nuestro plan desde el principio era aprender de los usuarios de la aplicación: lo que funciona y lo que no funciona”, dijo Pallister. «Así que parte de la reacción que vimos no se basa en el uso de la aplicación, sino en las capturas de pantalla que vieron en el fondo de la [keynote] que hicimos recientemente.

“Algunas son preguntas justas, otras son como, ‘oye, si usas la cosa, probablemente verás que es un poco diferente’. Pero aprenderemos de todas esas fuentes y el objetivo es realmente brindar a los usuarios control y opciones, ver qué funciona y adaptarnos en consecuencia «.