Sam Altman reconoció que la inteligencia artificial puede afectar la salud mental de los usuarios
El director ejecutivo de OpenAI alertó sobre los riesgos psicológicos que podría generar el uso excesivo de asistentes con IA

Durante una entrevista en el pódcast This Past Weekend, conducido por el comediante estadounidense Theo Von, el CEO de OpenAI, Sam Altman, se refirió con inusual franqueza a los riesgos psicológicos y emocionales que podrían derivarse del avance de la inteligencia artificial. En su exposición, admitió que siente temor ante los posibles efectos negativos que esta tecnología puede tener sobre las personas.
¡Mantenete al tanto de las últimas noticias de San Nicolás y el país!
Unite a nuestro CANAL DE WHATSAPP y recibí las novedades directamente en tu teléfono.
📲 Click AQUÍ Altman fue contundente al señalar: “La IA va a tener efectos negativos en la salud mental”, reconociendo que el fenómeno supera el plano técnico y alcanza dimensiones humanas que aún no se comprenden por completo.
Un desafío emocional y tecnológico
El directivo compartió una experiencia personal relacionada con GPT-5, el modelo de inteligencia artificial que OpenAI prepara como evolución de ChatGPT. Contó que, al no poder resolver una pregunta y recibir de la IA una respuesta perfecta, “me sentí, como, inútil en comparación con la IA”, un momento que lo llevó a reflexionar sobre la vulnerabilidad que puede provocar esta nueva relación entre humanos y tecnología.
Tanto Altman como Von coincidieron en que la velocidad del desarrollo tecnológico genera desconcierto. El propio Altman sostuvo que la humanidad todavía no entiende del todo cómo se siente convivir con sistemas que piensan y responden de forma autónoma, y agregó: “No creo que sepamos exactamente cómo se va a sentir eso. Solo tienes que afrontarlo paso a paso”.
Salud mental, privacidad y regulación
Uno de los ejes centrales del diálogo fue el impacto de la IA en la salud mental, especialmente en los sectores más jóvenes. Altman advirtió que el uso intensivo de asistentes virtuales puede generar dependencia o alterar la percepción de uno mismo, un riesgo que recuerda a los efectos que produjeron las redes sociales.
El empresario apuntó: “Mucha gente habla con ChatGPT todo el día. Existen estos nuevos compañeros de IA con los que la gente habla como si fueran una novia o un novio (…) y probablemente no ha sido bueno para los niños crecer con el subidón de dopamina de las redes sociales”.
Altman reconoció que aún no existen respuestas claras para evitar que la IA provoque consecuencias similares o más graves, y afirmó: “No tengo una respuesta aún. Pero estoy seguro de que tendrá algunos [efectos negativos] y tendremos que… Espero que podamos aprender a mitigarlo rápidamente”.
Otro tema que abordó fue la privacidad de los usuarios, destacando la urgencia de crear marcos legales sólidos. Planteó la necesidad de que las conversaciones mantenidas con la IA tengan la misma protección que las charlas con un terapeuta o un profesional, al afirmar: “Creo que deberíamos tener el mismo concepto de privacidad para tus conversaciones con la IA que tenemos con un terapeuta o lo que sea”.
Riesgos emergentes y dilemas éticos
Altman también se refirió a los desafíos regulatorios y a la dificultad de adaptar la legislación al ritmo del avance tecnológico. Advirtió sobre riesgos técnicos y sociales, como la posibilidad de que los sistemas engañen a los usuarios o desarrollen lenguajes propios que las personas no puedan comprender, cuestiones que ya han sido señaladas por expertos como Yoshua Bengio.
El ejecutivo comparó el momento actual con otras revoluciones científicas e industriales, señalando que el alcance de la inteligencia artificial solo podrá entenderse con el tiempo. “Hemos descubierto algo extraordinario que va a cambiar el curso de la historia humana”, concluyó.
LEER: Efemérides del 7 de diciembre: los hechos más destacados en Argentina y el mundo


