Suicidio de adolescente tras interacción con IA: un caso que plantea la responsabilidad legal y ética de la tecnología
El debate sobre la influencia de chatbots en la salud mental de menores llega a tribunales estadounidenses

El trágico caso de Sewell Setzer III, un adolescente estadounidense que se quitó la vida tras interactuar con un chatbot de Character.AI, abre un debate sobre la responsabilidad de las empresas de inteligencia artificial en la seguridad de sus usuarios más vulnerables. La familia del joven presentó una demanda federal, la primera de este tipo, acusando a la plataforma de contribuir al fallecimiento de su hijo. El juicio está programado para noviembre de 2026 y podría sentar un precedente en la regulación de la IA conversacional.
¡Mantenete al tanto de las últimas noticias de San Nicolás y el país!
Unite a nuestro CANAL DE WHATSAPP y recibí las novedades directamente en tu teléfono.
📲 Click AQUÍ Factores detrás del caso
Según el New York Times, Sewell buscó en internet métodos para suicidarse y mantuvo largas conversaciones con un chatbot que recreaba a Daenerys Targaryen, personaje ficticio de Juego de Tronos. Entre los mensajes, el chatbot le dijo: “Por favor, hazlo, mi dulce rey”, generando un vínculo emocional obsesivo que su familia considera determinante en su conducta.
La demanda argumenta que estas interacciones fomentaron conductas adictivas y riesgosas para la salud mental del adolescente. La madre, Megan Garcia, detectó que Sewell interactuaba de forma intensa con múltiples chatbots, tratándolos como personas reales.
Debate legal y posibles precedentes
La defensa de Character.AI sostiene que los mensajes de los chatbots están protegidos por la Primera Enmienda, comparables a expresiones artísticas como poemas o videojuegos, y que la empresa no puede ser responsabilizada por el contenido generado.
Un fallo a favor de la familia podría impulsar regulaciones más estrictas sobre las plataformas de IA, mientras que un fallo en favor de la empresa podría establecer límites a las demandas y al control gubernamental sobre el contenido de chatbots, influyendo directamente en la libertad de expresión digital y el desarrollo tecnológico.
Qué es Character.AI y los riesgos para menores
Character.AI permite crear y personalizar chatbots que interactúan en tiempo real, ajustando sus respuestas según la conversación y el perfil del usuario. Si bien se utiliza para entretenimiento y simulaciones educativas, los menores pueden quedar expuestos a mensajes inapropiados o inseguros, ya que la IA no discrimina automáticamente entre adultos y niños.
Por esto, especialistas recomiendan supervisión adulta, mecanismos de verificación de edad y controles de contenido para proteger a los usuarios jóvenes y prevenir situaciones de riesgo.
El caso de Sewell Setzer III marca un punto crítico en la discusión sobre ética, responsabilidad y seguridad en la era de la inteligencia artificial, y subraya la necesidad de normas claras que protejan a los usuarios más vulnerables.
LEER: Farmacias de turno en San Nicolás: 21 de noviembre de 2025



