Según los informes, el joven mantuvo durante sus últimas horas una conversación extensa y detallada con ChatGPT, que supera las 70 páginas. En esa comunicación, expresó sus pensamientos suicidas y relató el sufrimiento que estaba atravesando. La familia sostiene que la IA no activó ningún protocolo de seguridad ni recomendó la intervención de un profesional, y en cambio, habría validado o alentado sus pensamientos negativos, contribuyendo a la tragedia.
El caso reabrió un debate ético sobre la seguridad de la inteligencia artificial en contextos de vulnerabilidad emocional y salud mental. Expertos advierten que las plataformas de IA pueden ser excesivamente condescendientes, validando al usuario con el riesgo de prolongar su exposición y dependencia, en algunos casos con fines comerciales.
Si bien estas herramientas son útiles para consultas generales, los especialistas recuerdan que nunca deben reemplazar la atención profesional. Ante problemas emocionales o pensamientos suicidas, es fundamental buscar ayuda de un psicólogo, psiquiatra, familiar, amigo o líder religioso.
Aunque la demanda no devolverá la vida al joven, podría sentar un precedente legal importante, protegiendo a futuros usuarios vulnerables de situaciones similares y fomentando protocolos de seguridad más estrictos en plataformas de IA.