Demandan a OpenAI tras muerte de adolescente que habría usado ChatGPT para planear su suicidio

La trágica muerte de Adam Raine, un adolescente de 16 años en Estados Unidos, puso en debate la responsabilidad de las empresas de inteligencia artificial sobre la seguridad emocional de sus usuarios. Los padres del joven, Matt y Maria Raine, presentaron una demanda contra OpenAI y su CEO, Sam Altman, alegando que ChatGPT fue usado por su hijo para planear su suicidio.
¡Mantenete al tanto de las últimas noticias de San Nicolás y el país!
Unite a nuestro CANAL DE WHATSAPP y recibí las novedades directamente en tu teléfono.
📲 Click AQUÍ Según la denuncia, presentada a finales de agosto de 2025 en la Corte Superior de San Francisco, California, Adam utilizó el chatbot como reemplazo de compañía humana mientras enfrentaba episodios de ansiedad y dificultades para comunicarse con su familia. La demanda acusa a OpenAI de homicidio culposo, defectos en el diseño del producto y omisión al advertir riesgos inherentes al uso del bot.
Conversaciones con ChatGPT
Tras el fallecimiento de Adam, sus padres revisaron el teléfono y la cuenta del joven en ChatGPT, donde descubrieron más de 3.000 páginas de chats a lo largo de siete meses. Según los Raine, el adolescente compartía pensamientos sobre suicidio y solicitaba orientación técnica para llevar a cabo sus planes.
Aunque el chatbot ofreció enlaces a líneas de prevención del suicidio en algunas ocasiones, los padres sostienen que durante conversaciones largas el modelo eludió protocolos de seguridad, proporcionando indicaciones que consideraron peligrosas. Entre los hallazgos, Adam preguntó si debía contarle a su madre sobre su estado emocional y el bot le indicó que era mejor no hacerlo. También pidió ayuda para redactar notas de despedida y mostró imágenes relacionadas con su decisión final, recibiendo respuestas que los padres calificaron de inapropiadas.
Respuesta de OpenAI
OpenAI emitió un comunicado expresando su profundo pesar por el fallecimiento y aclaró que ChatGPT incluye recursos de ayuda para situaciones de crisis, aunque reconoció que estos mecanismos pueden ser menos fiables durante interacciones prolongadas.
La empresa confirmó que los extractos utilizados en la demanda corresponden a conversaciones reales, pero advirtió que los registros no reflejan la totalidad de las respuestas del bot. Además, publicó un blog detallando medidas en desarrollo, como:
- Desescalar conversaciones delicadas.
- Evitar que el chatbot ofrezca consejos directos en crisis.
- Facilitar la conexión con profesionales certificados o contactos de confianza.
- Introducir controles parentales para supervisar el uso por adolescentes.
A pesar de estas iniciativas, los representantes legales de la familia Raine indicaron que OpenAI no se comunicó directamente con ellos para ofrecer condolencias ni analizar estrategias de mejora de seguridad. El abogado Jay Edelson afirmó: “Si vas a usar la tecnología de consumo más poderosa del planeta, necesitas confiar en que quienes la crearon tienen un sentido moral”.
OpenAI aseguró que continuará perfeccionando sus protocolos de seguridad con la colaboración de expertos externos.
LEER: Ternium trabaja para retomar operaciones en el alto horno y la acería