ChatGPT anuncia cambios tras el suicidio de un joven que pidió ayuda a la IA
La compañía responde a la demanda presentada por los padres del chico en el que pedían mayores medidas de control y admite que en «interacciones largas» fallan «partes del entrenamiento de seguridad»
J. F. | S. O.
Jueves, 28 de agosto 2025, 20:15
El suicidio de Adam Raine, un adolescente de 16 años, en California no quedará en el olvido. Open IA, la compañía que creó ChatGPT, introducirá cambios en esta herramienta para evitar que la situación se repita. El anuncio llega tras la denuncia de los padres del chaval, en la que aseguraban que había dado instrucciones a su hijo de cómo acabar con su vida e incluso le había animado a ello.
Raine se suicidó en abril tras de meses de conversaciones con la IA y lo hizo tal y como esta le había recomendado: ahorcándose con un nudo corredizo. Era el final de una larga relación que comenzó 2024. Primero, el chico se limitó a pedir ayuda a ChatGPT con los deberes y a preguntarle dudas relacionadas con cosas que le gustaban, como cómics japoneses, jiu-jitsu, grupos musicales... Pero luego, intimaron más.
El adolescente se quedó anímicamente tocado tras la muerte de su abuela y de su perro, y buscó consejo en la inteligencia artificial:«¿Por qué no soy feliz, siento soledad, un aburrimiento constante, ansiedad y pérdida, pero no siento depresión ni tristeza?», le preguntó. A partir de ese momento las conversaciones cambiaron de tono. El chico hablaba de la muerte, y ChatGPT, lejos de indicarle que pidiese ayuda a profesionales, le recomendó aislarse. Según sus padres, le mencionó el suicidio en 1.275 ocasiones.
La familia presentó esta misma semana una demanda ante el Tribunal Superior de San Francisco en la que alegan que la herramienta de OpenAI animó al chico a planear un «hermoso suicidio» y a mantenerlo en secreto. En el escrito, también solicitan a la corte que ordene medidas de seguridad, incluyendo el fin de cualquier conversación que involucre autolesiones, así como controles parentales para el uso del chatbot de parte de menores.
La empresa que dirige Sam Altman reaccionó inmediatamente a la presentación de esta denuncia, antes incluso de que un juez la haya estudiado. Y en un comunicado enviado a los medios estadounidenses afirmó que piensan tomar medidas para que no se repita lo que vivió este adolescente. «Expresamos nuestras más sinceras condolencias a la familia Raine en estos momentos difíciles y estamos revisando la solicitud», aseguró OpenAI en la nota.
Controles parentales
La compañía se comprometió a realizar cambios en las protecciones de ChatGPT para personas vulnerables, incluidas medidas adicionales cuando el usuario es menor de 18 años. Según explicaron, cuando las interacciones con los usuarios son cortas y «comunes», estos cortafuegos –como son dirigir a las personas a líneas de ayuda en situaciones de crisis y derivarlas a recursos reales–, funcionan mejor. Sin embargo, «con el tiempo, hemos aprendido que, a veces, pueden volverse menos fiables en interacciones largas, donde partes del entrenamiento de seguridad del modelo pueden deteriorarse. Las medidas de seguridad son más sólidas cuando cada elemento funciona según lo previsto, y las mejoraremos continuamente, guiados por expertos».
Además, anunciaron que «próximamente» introducirán «controles parentales que les permitirán comprender mejor y controlar cómo sus hijos adolescentes usan ChatGPT. También estamos explorando la posibilidad de que los adolescentes (con la supervisión de sus padres) designen un contacto de emergencia de confianza», concluyeron.