31 dic. 2025

¿Hasta dónde la IA puede afectar a los humanos ?

Los padres un joven de 23 años que se quitó la vida en Estados Unidos, iniciaron acciones legales contra los creadores de ChatGPT, la plataforma de inteligencia artificial desarrollada por OpenAI. La familia alega que la IA habría “incitado” al joven a tomar esta trágica decisión.

Screenshot_9.png

Según los informes, el joven mantuvo durante sus últimas horas una conversación extensa y detallada con ChatGPT, que supera las 70 páginas. En esa comunicación, expresó sus pensamientos suicidas y relató el sufrimiento que estaba atravesando. La familia sostiene que la IA no activó ningún protocolo de seguridad ni recomendó la intervención de un profesional, y en cambio, habría validado o alentado sus pensamientos negativos, contribuyendo a la tragedia.

El caso reabrió un debate ético sobre la seguridad de la inteligencia artificial en contextos de vulnerabilidad emocional y salud mental. Expertos advierten que las plataformas de IA pueden ser excesivamente condescendientes, validando al usuario con el riesgo de prolongar su exposición y dependencia, en algunos casos con fines comerciales.

Si bien estas herramientas son útiles para consultas generales, los especialistas recuerdan que nunca deben reemplazar la atención profesional. Ante problemas emocionales o pensamientos suicidas, es fundamental buscar ayuda de un psicólogo, psiquiatra, familiar, amigo o líder religioso.

Aunque la demanda no devolverá la vida al joven, podría sentar un precedente legal importante, protegiendo a futuros usuarios vulnerables de situaciones similares y fomentando protocolos de seguridad más estrictos en plataformas de IA.

VER MÁS:
El cariño de toda una familia que se reúne ante él para celebrar la Navidad.
El verano es una época para disfrutar en familia y de nuestras mascotas que aman esta estación.
El oratorio Inmaculada Concepción organiza merienda para niños en el día de la Virgen de Caacupé.