05 abr. 2026

¿Hasta dónde la IA puede afectar a los humanos ?

Los padres un joven de 23 años que se quitó la vida en Estados Unidos, iniciaron acciones legales contra los creadores de ChatGPT, la plataforma de inteligencia artificial desarrollada por OpenAI. La familia alega que la IA habría “incitado” al joven a tomar esta trágica decisión.

Screenshot_9.png

Según los informes, el joven mantuvo durante sus últimas horas una conversación extensa y detallada con ChatGPT, que supera las 70 páginas. En esa comunicación, expresó sus pensamientos suicidas y relató el sufrimiento que estaba atravesando. La familia sostiene que la IA no activó ningún protocolo de seguridad ni recomendó la intervención de un profesional, y en cambio, habría validado o alentado sus pensamientos negativos, contribuyendo a la tragedia.

El caso reabrió un debate ético sobre la seguridad de la inteligencia artificial en contextos de vulnerabilidad emocional y salud mental. Expertos advierten que las plataformas de IA pueden ser excesivamente condescendientes, validando al usuario con el riesgo de prolongar su exposición y dependencia, en algunos casos con fines comerciales.

Si bien estas herramientas son útiles para consultas generales, los especialistas recuerdan que nunca deben reemplazar la atención profesional. Ante problemas emocionales o pensamientos suicidas, es fundamental buscar ayuda de un psicólogo, psiquiatra, familiar, amigo o líder religioso.

Aunque la demanda no devolverá la vida al joven, podría sentar un precedente legal importante, protegiendo a futuros usuarios vulnerables de situaciones similares y fomentando protocolos de seguridad más estrictos en plataformas de IA.

VER MÁS:
El legado del escultor paraguayo Hermann Guggiari será celebrado con un encuentro artístico el viernes 20 de marzo a partir de las 19:30 hs. en el Bosque de los Artistas.
La gripe canina puede ser muy contagiosa, es por eso que se debe prevenir y mantener bien cuidado al animal.
El Barrio San Pablo de la capital se encuentra en estado calamitoso.