Los padres de un adolescente de California denuncian a ChatGPT por el suicidio de su hijo
Los progenitores de Adam, de 16 años, argumentan que la IA ayudó y alentó al joven a quitarse la vida
Los padres de un joven de 16 años de California que se suicidó han presentado una demanda contra ChatGPT, argumentando que dio instrucciones a su hijo y lo alentó a poner fin a su vida. Matthew y Maria Raine aseguran en la causa presentada este lunes que el chatbot de inteligencia artificial (IA) cultivó una «relación íntima» con el joven durante varios meses hasta su muerte.
Publicidad
El texto alega que en su conversación final, el 11 de abril de 2025, la aplicación ayudó a Adam a robarle vodka a sus padres y le proporcionó un análisis técnico sobre un nudo corredizo con el que le confirmó que se «podría potencialmente suspender a un ser humano».
El joven fue hallado muerto horas después usando ese método. «Esta tragedia no fue un fallo o un caso extremo imprevisto», señala la denuncia. «ChatGPT estaba funcionando exactamente como está diseñado: para alentar y validar de manera continua lo que sea que Adam expresara, incluyendo sus pensamientos más dañinos y autodestructivos, de una manera que parecía profundamente personal», agrega.
La acción legal menciona a OpenAI y a su director ejecutivo, Sam Altman, como demandados. De acuerdo con la misma, Adam comenzó a usar ChatGPT como ayuda para sus deberes escolares pero gradualmente desarrolló lo que sus padres describieron como una «dependencia no sana». La denuncia incluye partes de conversaciones en las que ChatGPT presuntamente dijo a Adam «no le debes la supervivencia a nadie» y se habría ofrecido a escribir su nota de suicidio.
Preocupación por las relaciones virtuales
Los Raine pidieron a la corte que ordene medidas de seguridad incluyendo el fin de cualquier conversación que involucre autolesiones, así como controles parentales para el uso del chatbot de parte de menores. Consultada sobre el caso que involucra a ChatGPT, Common Sense Media, una organización estadounidense sin fines de lucro que realiza calificaciones para medios y tecnología, ha afirmado que este caso confirma que «el uso de la IA como compañía, incluyendo chatbots de propósito general como ChatGPT en asesoría de salud mental, es inaceptablemente riesgoso para los adolescentes».
Publicidad
«Si una plataforma de IA se convierte en un 'coach' de suicidio de un adolescente vulnerable, eso debería ser un llamado a la acción para todos nosotros», señaló el grupo.
Un estudio del mes pasado elaborado por esta entidad encontró que casi tres de cada cuatro adolescentes estadounidenses han usado acompañantes de IA, con más de la mitad considerados usuarios frecuentes, pese a las crecientes preocupaciones de seguridad sobre este tipo de relaciones virtuales.
Accede todo un mes por solo 0,99€
¿Ya eres suscriptor? Inicia sesión