14 feb. 2026

¿Hasta dónde la IA puede afectar a los humanos ?

Los padres un joven de 23 años que se quitó la vida en Estados Unidos, iniciaron acciones legales contra los creadores de ChatGPT, la plataforma de inteligencia artificial desarrollada por OpenAI. La familia alega que la IA habría “incitado” al joven a tomar esta trágica decisión.

Screenshot_9.png

Según los informes, el joven mantuvo durante sus últimas horas una conversación extensa y detallada con ChatGPT, que supera las 70 páginas. En esa comunicación, expresó sus pensamientos suicidas y relató el sufrimiento que estaba atravesando. La familia sostiene que la IA no activó ningún protocolo de seguridad ni recomendó la intervención de un profesional, y en cambio, habría validado o alentado sus pensamientos negativos, contribuyendo a la tragedia.

El caso reabrió un debate ético sobre la seguridad de la inteligencia artificial en contextos de vulnerabilidad emocional y salud mental. Expertos advierten que las plataformas de IA pueden ser excesivamente condescendientes, validando al usuario con el riesgo de prolongar su exposición y dependencia, en algunos casos con fines comerciales.

Si bien estas herramientas son útiles para consultas generales, los especialistas recuerdan que nunca deben reemplazar la atención profesional. Ante problemas emocionales o pensamientos suicidas, es fundamental buscar ayuda de un psicólogo, psiquiatra, familiar, amigo o líder religioso.

Aunque la demanda no devolverá la vida al joven, podría sentar un precedente legal importante, protegiendo a futuros usuarios vulnerables de situaciones similares y fomentando protocolos de seguridad más estrictos en plataformas de IA.

VER MÁS:
Se acerca el día más romántico del año y empezó el debate de quién debe pagar la cena.
Durante la homilía de Caacupé se compartió el mensaje que puso especial atención en las víctimas.
¡Esto respondió la gente en las calles!