Los fanáticos de AI Dungeon explotan Latitude para los nuevos filtros sexuales de los desarrolladores

Mazmorra de IA es un juego infinito generado por procedimientos en el que los jugadores crean una narrativa de texto clásico al estilo de una aventura escribiendo indicaciones ingeniosas o ingeniosas. En una actualización reciente, Mazmorra de IA El desarrollador Latitude implementó un nuevo sistema que evita que el juego genere contenido sexual que involucre a menores, y la comunidad está indignada por la implementación.

El sistema (que el desarrollador está probando actualmente) se diseñó para detectar «contenido explícito que incluya descripciones o representaciones de menores». En esa circunstancia, Mazmorra de IA le dirá al jugador «Uh oh, esto tomó un giro extraño …» y lo obligará a probar otras indicaciones. Según una declaración de Latitude, el sistema arrojó una red mucho más amplia de lo previsto, a veces bloqueando la generación procedimental de historias que involucran a niños o niñas. cualquier cosa relacionado con frases específicas como «cinco años».

El martes, Latitude publicó un extenso blog que explica la actualización en un intento de calmar las mayores preocupaciones de la comunidad.

Ayer, lanzamos un sistema de prueba para evitar la generación de cierto contenido sexual que viola nuestras políticas, específicamente contenido que puede involucrar representaciones o descripciones de menores (para lo cual tenemos tolerancia cero), en la plataforma AI Dungeon. No comunicamos esta prueba a la comunidad con anticipación, lo que creó un entorno en el que los usuarios y otros miembros de nuestra comunidad en general, incluidos los moderadores de la plataforma, fueron tomados con la guardia baja. Debido a esto, se ha extendido cierta desinformación en Discord, Reddit y otras partes de la comunidad de AI Dungeon. Como resultado, se volvió difícil mantener las conversaciones que queremos tener sobre qué tipo de contenido está permitido en AI Dungeon.

El desarrollador dijo que la prueba tuvo implicaciones no deseadas y escribió: «Si bien esta prueba solo ha impedido en gran medida que la IA genere contenido sexual que involucre a menores, debido a limitaciones técnicas, a veces ha impedido la generación de contenido para el que no estaba destinado».

Los fanáticos han estado reaccionando a estos cambios, tanto con el propósito previsto como con los efectos secundarios no deseados, en las redes sociales de Latitude. Algunas de estas publicaciones son memes que están destinados a ser una simple volcada sobre el desarrollador y poco más, mientras que otras publicaciones parecen reflejar una ira legítima.

Una imagen del subreddit de AI Dungeon al 28 de abril, que refleja la reacción de la comunidad.

Los usuarios han estado compartiendo ejemplos de sus historias que llegan a un final repentino cuando el sistema de prueba parece detectar contenido controvertido … incluso cuando claramente no hay ninguno. Mazmorra de IA permite posibilidades ilimitadas de juego de roles y narración de historias, y Latitude admite otro material NSFW, incluido el sexo, la violencia y las malas palabras. Algunos jugadores se sienten alarmados de que su ficción privada con temas para adultos pueda estar sujeta a moderación y ser leída por otra persona del equipo de desarrollo. Latitude dijo que su sistema marcará las publicaciones que podrían infringir las reglas, que luego un miembro del personal puede revisar más a fondo.

«Latitude revisa el contenido marcado por el modelo con el fin de mejorar el modelo, hacer cumplir nuestras políticas y cumplir con la ley», dijo el desarrollador. En respuesta a la pregunta «¿Latitud está leyendo mis aventuras inéditas?» el desarrollador escribió: «Creamos un sistema automatizado que detecta contenido inapropiado». Nos comunicamos con Latitude para obtener comentarios y aclaraciones.

Esto tiene a los usuarios preocupados por su seguridad y privacidad, especialmente si han enviado información personal o vulnerable al Mazmorra de IA sistema. Por ahora, el sistema de prueba todavía está en su lugar.