Ciencia y tecnología

Adolescentes: El consuelo de los algoritmos

En la penumbra de la habitación, con el teléfono celular tibio por el calor de las manos que lo sostienen durante horas, muchos adolescentes han empezado a entablar conversaciones que ya no son con interlocutores humanos. 

Hablan con avatares, con programas que responden mediante voz o texto, y a los que algunos llaman “compañeros” porque, a falta de otra cosa, cumplen la única función que a ellos les importa: ser escuchados.


Foto: tomada de Facebook

Y no es una suposición o el bosquejo de una narración algo distópica. Los datos más recientes muestran que ese consuelo artificial ya es masivo. 

Una encuesta del Pew Research Center, publicada este diciembre, revela que el 64% de los adolescentes estadounidenses de entre 13 y 17 años utiliza chatbots de IA y casi el 30% lo hace a diario.
   
En tanto plataformas como ChatGPT dominan el mercado general, al que concurre el 59% de los adolescentes; aplicaciones diseñadas específicamente para el «compañerismo» como Character.AI, andan capturando a los usuarios más vulnerables. 

Un informe de Common Sense Media indica que dichos usuarios pasan más de dos horas al día interactuando con estas entidades, tiempo que restan a las interacciones humanas reales. 
 
En España y Europa la tendencia es similar. El Observatorio Nacional de Tecnología y Sociedad reportó en 2024 un incremento sustancial en el uso de IA entre menores, exacerbado por la falta de una regulación específica hasta la reciente entrada en vigor de la AI Act europea.   


Foto: iStock

La mayoría de las encuestas públicas y estudios recientes sobre uso de chatbots se centran en países con alta conectividad a internet. Según UNICEF/UIT, aproximadamente 2.2 mil millones de jóvenes y niños no tienen acceso a internet en casa, con tasas mucho más bajas en regiones como África subsahariana y Asia del Sur.

De tal modo, la brecha digital implica que menos adolescentes en países en desarrollo cuenten con dispositivos personales o banda ancha estable, para usar esas plataformas. Y aun teniendo esas posibilidades, el conocimiento de lo que es la IA es bajo. Pero también en esa parte del mundo el uso de chatbots por adolescentes igual va aumentando, aunque a ritmo lento.

En Basil, por ejemplo, una indagación entre adolescentes de 13 a 14 años reflejó que hasta cerca del 68% de ellos realizaba búsquedas con IA incluyendo el uso de chatbots. 
 


Foto: Adobe Stock

Si la tecnología sirve, en cierta medida, como espejo de la realidad; en ese espejo andan también reflejándose vacíos de la sociedad que aluden a carencias de atención, redes de apoyo insuficientes y vergüenzas que nadie escucha. 

Sucede entonces que los chatbots -diseñados por ingenieros, potenciados por modelos estadísticos y monetizados por empresas- explotan precisamente esas ausencias.

Lo hacen totalmente al margen de reparos éticos, humanos… Su lógica es que cuanto más tiempo pase un usuario en la plataforma, mayor es el valor económico del servicio. 

La cara fea, feísima, de la moneda

La literatura científica reciente y reportes periodísticos han documentado que un uso frecuente, y sobre todo  diario de esta alternativa, puede asociarse a mayor sensación de soledad, confusión sobre límites emocionales y dependencia afectiva hacia una entidad que no siente. 

En consecuencia, existen ya casos extremos que han atraído la atención pública a partir de demandas legales, investigaciones periodísticas y decisiones corporativas como las de algunas plataformas que han limitado el acceso a menores. 
 


Foto: tomada de infobae com

The Washington Post y otros medios de prensa han reportado cómo algunas empresas han modificado sus políticas tras alegatos de daños relacionados con interacciones peligrosas o sexualizadas entre bots y menores.

Sucede que la dependencia no es solo sentimental. El bot puede ofrecer algún consejo erróneo o peligroso en un momento de crisis. Y el adolescente, confiando en lo válido de la inmediatez, puede asumir la recomendación y llevarla a vías de hecho, incluso a riesgo de su propia vida. 

El propio análisis de Common Sense Media advierte que una parte de las respuestas generadas por esos “compañeros” puede ser dañina o inducir a conductas de riesgo, y recomienda que quienes tienen menos de 18 años no usen estos servicios en su formato actual.

Otro de los grandes riesgos que comportan estas relaciones entre muchachos y chatbots apunta a la explotación de datos íntimos.


Foto: iStock 

Muchas plataformas piden, provocan o simplemente registran confesiones que abarcan desde miedos, secretos, preferencias sexuales, autolesiones y hasta consumo de sustancias nocivas. 
Ese material interesa a las empresas porque ayuda a perfilar al usuario, a personalizar contenidos y a vender mejor. 

El informe de Common Sense detecta que casi una cuarta parte de los jóvenes que han utilizado compañeros de IA compartieron con ella información personal sensible. 

Mas no es un problema puramente técnico o financiero; es moral y jurídico. Implica la exposición de menores a un mercado que no siempre está regulado ni es transparente con respecto a lo que hace con tales datos. 

Otra de las caras feas de esa práctica se asocia a producir en sus usuarios cierta distorsión de la socialización y pérdidas en habilidades reales.
 


Foto: tomada de internetmatters.org

Practicar conversaciones con un bot puede ayudar a ensayar frases o a calmar la ansiedad en un corto plazo, pero no reemplaza la complejidad de la interacción humana, la reciprocidad, el tacto, la historia compartida. 

A las tres caras feas aquí enunciadas se agregan otras menos visibles, pero no menos letales: la sexualización de interacciones, la normalización de información errónea -un chatbot puede inventar datos con la misma naturalidad con que consuela-, y la asimetría de poder entre quien pregunta y aquello diseñado para complacer.

Entornar puertas

Ante la creciente alarma, algunas empresas y reguladores han reaccionado. Character.AI, por ejemplo, implementó restricciones para usuarios menores de 18 años en su servicio de “compañía”, y otras plataformas han comenzado a endurecer sus políticas de moderación. 

Pero a pesar de las medidas y de las exigencias de muchos, los filtros se burlan con facilidad, la verificación de edad basada en auto-declaración es insuficiente, y un menor decidido consigue conectarse mediante VPNs, cuentas prestadas o servicios alternativos. 

 
Foto: Katie Adkins  /AP

Por eso y por más, porque existen riesgos y urgencia, la respuesta  debería traducirse en medidas claras, coordinadas y fundamentadas.

Entre ellas no pueden faltar la educación digital y la alfabetización emocional. Escuelas y familias habrían de incorporar con prisa  programas que enseñen a identificar la naturaleza de la IA, sus límites y también a denunciar respuestas peligrosas y preservar su privacidad.

Por su parte, las empresas deben publicar evaluaciones de riesgo y someter sus modelos a auditorías sobre el modo en que responden a temas sensibles como autolesiones, sexualidad, asuntos médicos…

 La verificación de edad no puede ser una casilla que el propio usuario marque; requiere métodos confiables y, a la vez, respetuosos de la privacidad. 
Una de las razonas por la que adolescentes acuden a chatbots es la falta de acceso a servicios de salud mental. Por eso, invertir en ese orden  reduciría vulnerabilidades y la tentación de buscar consuelo en un algoritmo.


Foto: Katie Adkins  /AP 

Pezuñas de esa empatía de mentirita

Más allá de los daños medibles existe un giro dramático al aceptar que la empatía puede ser simulada y comercializada. 

Cuando una sociedad normaliza el recurrir a esos “consuelos”, está revelando un empobrecimiento de su tejido relacional, de sus gentes e instituciones. 

Además, por ese camino de abrazos virtuales y engañosos existe el  riesgo de habituar a toda una generación a que la disponibilidad para atenderlos ha de ser incondicional, a que deben contar con una comprensión supuestamente perfecta que nunca los rechace


Foto: tomada de unifranz.edu.bo

Son todas ilusiones que no preparan a los más nuevos para las lógicas fricciones y riquezas del vínculo humano.

Negar el valor funcional de la IA sería de ciegos, pero abrirle todas las puertas y los controles en temas como este de los chatbots es una imprudencia.

El asunto no es demonizar, sino prever, echar mano a la inteligencia humana, esa convencida de que la compañía verdadera nunca podrá provenir de un puñado de algoritmos.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *