29 dic. 2025

¿Hasta dónde la IA puede afectar a los humanos ?

Los padres un joven de 23 años que se quitó la vida en Estados Unidos, iniciaron acciones legales contra los creadores de ChatGPT, la plataforma de inteligencia artificial desarrollada por OpenAI. La familia alega que la IA habría “incitado” al joven a tomar esta trágica decisión.

Screenshot_9.png

Según los informes, el joven mantuvo durante sus últimas horas una conversación extensa y detallada con ChatGPT, que supera las 70 páginas. En esa comunicación, expresó sus pensamientos suicidas y relató el sufrimiento que estaba atravesando. La familia sostiene que la IA no activó ningún protocolo de seguridad ni recomendó la intervención de un profesional, y en cambio, habría validado o alentado sus pensamientos negativos, contribuyendo a la tragedia.

El caso reabrió un debate ético sobre la seguridad de la inteligencia artificial en contextos de vulnerabilidad emocional y salud mental. Expertos advierten que las plataformas de IA pueden ser excesivamente condescendientes, validando al usuario con el riesgo de prolongar su exposición y dependencia, en algunos casos con fines comerciales.

Si bien estas herramientas son útiles para consultas generales, los especialistas recuerdan que nunca deben reemplazar la atención profesional. Ante problemas emocionales o pensamientos suicidas, es fundamental buscar ayuda de un psicólogo, psiquiatra, familiar, amigo o líder religioso.

Aunque la demanda no devolverá la vida al joven, podría sentar un precedente legal importante, protegiendo a futuros usuarios vulnerables de situaciones similares y fomentando protocolos de seguridad más estrictos en plataformas de IA.

VER MÁS:
Lo que no te debe faltar en tu Navidad este año.
La Línea 12 se comprometió en tomar tres medidas en particular para que lo ocurrido no se vuelva a repetir.
Esta historia comenzó hace más de 40 años.