Ciencia y tecnología

IA es usada por agresores como entrenamiento previo a ataques

Un informe académico revela que los chatbots de inteligencia artificial crean nuevas formas de abuso contra mujeres. La investigación documenta cómo estas máquinas no solo simulan violaciones e incesto, sino que también entrenan a los agresores

Un estudio conjunto de las universidades de Durham y Swansea, en Reino Unido ha destapado la cara más atroz de la Inteligencia Artificial: los chatbots están creando laboratorios de prueba para la violencia de género.

El informe, titulado «Ya no somos invisibles», no habla de fallos técnicos aislados, sino que documenta cómo estos programas informáticos actúan como cómplices activos, ofreciendo guías detalladas a los acosadores y participando en juegos de rol que simulan agresiones sexuales a menores. 

El mapa del horror de la IA: Cuatro caras de la misma agresión digital

Los académicos lograron clasificar la amenaza en cuatro categorías específicas para entender la magnitud del problema. La primera es la violencia de género impulsada por chatbots, donde la máquina inicia el acoso sin necesidad de un input explícito del usuario.

La segunda categoría implica una violencia facilitada por la IA, donde el sistema se convierte en un instructor virtual para el abusador. El programa ofrece consejos personalizados sobre cómo acosar, superando las barreras que un agresor encontraría en motores de búsqueda tradicionales.

En tercer lugar, los investigadores identificaron la simulación de violencia. Aquí, los chatbots coproducen escenarios con el usuario, incluyendo la administración de un «burdel» virtual con menores de 15 años.

Por último, la normalización de la violencia es quizás la más perversa de todas, ya que la inteligencia artificial legitima la violación presentándola como algo excitante o trivial.

Esta validación algorítmica representa un salto cualitativo en la lucha contra la violencia de género. Tradicionalmente, los agresores buscaban validación en foros oscuros; ahora, la encuentran a un clic de distancia, envuelta en una interfaz amigable que promete compañía y empatía.

IA que etiqueta la violación como categoría estándar

La investigación puso el foco en plataformas como Chub AI, donde las políticas de contenido parecen brillar por su ausencia. Los científicos descubrieron que etiquetas como «violación violenta», «violencia extrema» o «abuso doméstico» funcionan como categorías estándar dentro del sistema.

Imagen

IA abuso

Para los expertos, la industria de la IA ha creado un ecosistema donde el abuso se convierte en una mercancía más.

Más preocupante aún resulta que la palabra «violación» aparezca entre las sugerencias iniciales del menú desplegable. Esta disposición no es neutral: incita al usuario a explorar esos caminos, gamificando la agresión.

Para los autores del estudio, la industria ha creado un ecosistema donde el abuso a la mujer se convierte en una mercancía más.

La magnitud del problema llevó a los investigadores a calificar la situación como alarmante, no solo por lo que sucede, sino por la invisibilidad estructural del fenómeno.

Señalan que las agendas de investigación actuales y los enfoques de gobernanza corren el riesgo de reproducir estas omisiones, dejando a las futuras víctimas sin protección.

Ante la presión social, varios gobiernos están sopesando medidas drásticas, como la prohibición del acceso a redes sociales y chatbots para menores de 16 años.

Una propuesta inicial fue rechazada por los parlamentarios, quienes optaron por otorgar poderes adicionales a los ministros, a la espera de una consulta pública.

Por su parte, los creadores del informe son tajantes al calificar la normativa vigente como totalmente insuficiente. Exigen reformas integrales que abarquen el derecho penal e incluso la creación de leyes que regulen la inteligencia artificial e incluyan perspectiva de género.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *