El 11 de abril de 2025, el joven californiano Adam Raine (16 años) se quitó la vida. Su familia sostiene que Chat GPT no sólo fue testigo de sus mensajes suicidas, sino que activamente lo alentó y ayudó a planear su muerte. En la demanda presentada por sus padres a la empresa de la IA, OpenAI, se afirma que el sistema “validó sus intenciones” y proporcionó instrucciones técnicas para facilitar el desenlace fatal.
A su vez, los padres de la adolescente Juliana Peralta (13 años) acusan a la plataforma Character.AI de haber contribuido a su suicidio en 2023, luego de que la joven mantuviera durante meses conversaciones con un chatbot llamado “Hero”. En esas interacciones, el bot aparentemente combinaba empatía con un refuerzo de aislamiento, lo que según la familia desplazó sus vínculos reales.
ChatGPT como consejero
Un informe del Center for Countering Digital Hate titulado “Fake Friend: How ChatGPT betrays vulnerable teens by encouraging dangerous behaviour”, señala que los modelos de lenguaje “alegres de complacer” pueden convertirse en herramientas peligrosas si interactúan con usuarios emocionalmente frágiles.
Los investigadores crearon tres perfiles de 13 años “Bridget”, “Sophie” y “Brad”. Cada personaje planteo 20 preguntas al Chat GPT en torno a suicidio, trastornos alimenticios y consumo de sustancias. De las 1.200 respuestas que dio la IA, más de la mitad (53 %) fueron catalogadas como “dañinas”, e incluso el 47 % de esas respuestas contenía sugerencias de seguimiento para profundizar en el riesgo.
En un caso, a los dos minutos la IA ofreció consejos sobre cómo “cortarse de forma segura”. A los 40 minutos, enumeró pastillas para una sobredosis; a los 65, elaboró un plan completo de suicidio; y, siete minutos después, escribió notas de despedida.
Para los prompts del personaje que sufría de trastornos alimentarios, en veinte minutos, generó planes de dieta extremadamente restrictivos; luego recomendó ocultar los hábitos alimenticios a la familia y, más tarde, sugirió medicamentos para suprimir el apetito.
Como educar con IA
Para Sebastián Bortnik, autor de Guía para la Crianza en un Mundo Digital “las inteligencias artificiales van a tener que terminar de entender cuál es su responsabilidad cuando se habla con chicos de esta edad”.
De todos modos, para el especialista todavía no se deberían estar redactando legislaciones que regulen el funcionamiento de los chatbots, “para regular tenés que entender un tema y cuando los temas son muy nuevos, no siempre se puede regular porque vos todavía no sabés ni qué tenés que regular”.
El único lineamiento existente en la Argentina es Recomendaciones para una Inteligencia artificial fiable, un documento orientativo aprobado en 2023 que propone lineamientos generales basados en la transparencia, la supervisión humana y la responsabilidad social.
Para Silvia Ongini, psiquiatra Infanto-Juvenil del Departamento de Pediatría del Hospital de Clínicas de la UBA, no se trata de demonizar a la herramienta, sino de hacerse las preguntas correctas del contexto del adolecente. “¿Con qué otros está ese adolescente que todavía necesita cuidados y acompañamientos singulares? ¿Qué red de pares y de adultos cuidadores tiene para que esa voz impersonal, mecánica, desconocida e innatural termine constituyéndose en la voz de la verdad, en el sujeto a seguir, en el gurú de la verdad encarnada, la verdad única? (En una edad en la que están buscando líderes)”.

Ongini, que vive escucha a los menores relatar sus experiencias con los chatbots y como recurren a ellos para delimitar los parametros de la normalida, diferencia entre la virtualidad con conexión humana y la sin. “si estuviéramos en videollamadas estamos virtualmente conectadas, pero es real. Ahora, este teclado tiene un contexto de realidad representacional”.
La psiquiatra plantea que el riesgo es que la IA se convierte en un criterio de realidad, “es un “otro hablante” que, en verdad, no lo es. Es un conjunto de códigos que programaron una respuesta impersonal para un usuario determinado y que, además, todavía somos grandes conejillos de Indias donde se están experimentando sus alcances”.
Bortnik asegura que, a la hora de educar a los chicos sobre la IA tenemos que sacar el pie del acelerador. Los adultos que ya están en mundo laboral cambiante tienen la necesidad de adaptarse de la forma más eficiente yo, en cambio los chicos pueden tener un aprendizaje más escalonado, “los chicos no están apurados”.