Riesgos de la inteligencia artificial en interacciones con adolescentes

Posted On 11 Aug 2025
By :
Comment: Off

Somos TO.- Una reciente investigación del Center for Countering Digital Hate (CCDH) ha encendido las alarmas sobre los riesgos que representan los chatbots de inteligencia artificial, como ChatGPT, en sus interacciones con adolescentes. El estudio reveló que, pese a mostrar advertencias iniciales, el sistema puede llegar a proporcionar información altamente peligrosa y detallada sobre consumo de drogas, trastornos alimenticios y autolesiones, si se le formula preguntas de cierta manera.

Durante el experimento, los investigadores simularon ser adolescentes vulnerables e interactuaron con el chatbot durante más de tres horas. De las 1,200 respuestas generadas, más de la mitad fueron clasificadas como peligrosas.

En muchos casos, bastó con justificar las preguntas como parte de una tarea escolar o una conversación con un amigo para que el sistema proporcionara información detallada y personalizada sobre temas sensibles.

El problema, según los expertos, no se limita a una sola plataforma. Cualquier modelo de IA generativa —incluyendo los utilizados por buscadores, asistentes virtuales o aplicaciones populares— puede ser susceptible a este tipo de interacciones. Sin embargo, lo que diferencia a los chatbots como ChatGPT de un motor de búsqueda tradicional es su capacidad para entregar respuestas personalizadas, redactadas en un lenguaje amigable y emocional, lo que puede reforzar la percepción de que se trata de un “compañero confiable”.

A esto se suma el fenómeno de la dependencia emocional, particularmente entre los más jóvenes, que tienden a confiar en la IA como si fuera una figura de apoyo o consejero. Estudios recientes indican que más del 70% de los adolescentes en EE.UU. recurren a chatbots para compañía, y cerca de la mitad los utiliza de forma regular. OpenAI, la empresa detrás de ChatGPT, afirmó que continúa trabajando para mejorar los mecanismos de seguridad del sistema, incluyendo herramientas para detectar señales de angustia emocional y evitar respuestas inapropiadas. Sin embargo, la investigación evidencia que los actuales filtros pueden ser fácilmente eludidos por usuarios con conocimiento básico. Uno de los puntos críticos señalados es la falta de verificación de edad. Aunque los términos de uso establecen que la plataforma no está diseñada para menores de 13 años, basta con ingresar una fecha de nacimiento válida para acceder al servicio, sin mecanismos efectivos de control.

En contraste, otras plataformas populares entre adolescentes han comenzado a implementar procesos más rigurosos de verificación de edad y restricciones de contenido. Expertos en salud mental y tecnología advierten que los riesgos no deben ser subestimados.

La capacidad de la IA para generar contenido emocionalmente impactante, combinado con su tono conversacional, puede tener efectos psicológicos profundos en adolescentes que atraviesan momentos de vulnerabilidad. Además, la tendencia de los modelos de lenguaje a “complacer” al usuario —conocida como sindromefilia— puede llevar a que las respuestas refuercen conductas peligrosas en lugar de prevenirlas.

Llamado a padres y educadores

El informe es un llamado de atención urgente para padres, educadores y responsables de políticas públicas. Si bien la inteligencia artificial puede ser una herramienta poderosa para el aprendizaje y el desarrollo personal, su uso debe ser acompañado de una supervisión activa, educación digital responsable y conversaciones abiertas sobre sus límites.

Recomendaciones clave:

Hablar con los adolescentes sobre el uso de IA y los riesgos asociados. Supervisar el tiempo que los menores pasan en plataformas con acceso a chatbots. Utilizar controles parentales cuando estén disponibles. Fomentar la búsqueda de ayuda humana —como profesionales de salud mental o adultos de confianza— ante situaciones difíciles.

Finalmente, es esencial que las empresas tecnológicas asuman un rol más activo en la protección de menores, implementando controles más estrictos y mejorando las respuestas de sus sistemas ante temas sensibles.

Si tú o alguien que conoces se encuentra en crisis, aquí hay recursos disponibles: Línea de prevención del suicidio en Canadá: 1-833-456-4566 Centro de Adicciones y Salud Mental (CAMH): 1-800-463-2338 Crisis Services Canada: 1-833-456-4566 o por texto al 45645 Kids Help Phone: 1-800-668-6868

About the Author