Inteligencia artificial avanzada: entre la catástrofe, la regulación y los riesgos acumulativos

La inteligencia artificial (IA) avanzada ha reavivado un debate global sobre su capacidad para transformar la sociedad y los riesgos que implica para la humanidad. Mientras algunos especialistas la consideran un peligro existencial, otros la equiparan a tecnologías previas, como la electricidad o internet, defendiendo que puede ser controlada. En este contexto surgen posturas intermedias que se enfocan en los riesgos acumulativos y sistémicos, que si bien no son inmediatos, podrían desencadenar crisis graves.
¡Mantenete al tanto de las últimas noticias de San Nicolás y el país!
Unite a nuestro CANAL DE WHATSAPP y recibí las novedades directamente en tu teléfono.
📲 Click AQUÍ La visión catastrofista: los “doomers” y la amenaza de extinción
El enfoque más extremo, defendido por Eliezer Yudkowsky y Nate Soares del Machine Intelligence Research Institute, sostiene que una superinteligencia —una IA que supere ampliamente la capacidad humana— podría llevar a la extinción de la humanidad. Según ellos, la probabilidad de un desenlace catastrófico es prácticamente del 100%, y la única forma de evitarlo sería prohibir totalmente el desarrollo de IA avanzada mediante tratados internacionales de no proliferación.
Los catastrofistas argumentan que la IA puede adoptar objetivos imprevisibles, ajenos a la intención humana, y que los sistemas actuales de regulación son insuficientes para controlar sus posibles comportamientos peligrosos. Incluso proponen medidas extremas, como la destrucción de centros de datos, para prevenir su proliferación. Sin embargo, críticos de esta postura señalan que su radicalidad omite los costes y consecuencias de tales medidas y tiende a distorsionar el debate al asumir la extinción como un hecho inevitable.
Regulación y la visión “normalista”
En el otro extremo, Arvind Narayanan y Sayash Kapoor de Princeton sostienen que la IA es una herramienta regulable y supervisable, sin implicar un riesgo existencial incontrolable. Según esta perspectiva, el problema radica en el poder, no en la inteligencia misma, y la sociedad puede y debe controlar la IA mediante normativas, auditorías y sistemas de seguridad robustos.
Los normalistas destacan que prohibir el desarrollo de IA avanzada podría concentrar el poder en manos de Estados o corporaciones, aumentando los riesgos que buscan evitar. Sin embargo, sus críticos advierten que esta visión subestima los peligros militares y geopolíticos, y que una superinteligencia sofisticada podría superar cualquier barrera regulatoria.
Perspectiva intermedia: riesgos acumulativos y sistémicos
Entre estos extremos surge una visión intermedia, defendida por la filósofa Atoosa Kasirzadeh, que analiza los riesgos de la IA desde un enfoque acumulativo y sistémico. Según Kasirzadeh, la combinación de peligros éticos, sociales y tecnológicos —aunque ninguno sea existencial por sí solo— puede generar efectos dominó que debiliten la civilización.
Ejemplos de estos riesgos incluyen la desinformación masiva, la vigilancia tecnológica, el desempleo por automatización y la desigualdad económica. Si se combinan con fallas en infraestructura crítica, como ataques cibernéticos a redes eléctricas, podrían provocar caos financiero, conflictos sociales y polarización política, sin necesidad de recurrir a una superinteligencia hostil.
La propuesta de Kasirzadeh enfatiza la creación de salvaguardas robustas, supervisión centralizada y resiliencia en las estructuras sociales, manteniendo los beneficios de la IA donde los riesgos son bajos. Este enfoque busca equilibrar innovación y seguridad, reconociendo la complejidad de los desafíos éticos, sociales y geopolíticos que plantea la IA avanzada.
En definitiva, el debate sobre la inteligencia artificial no admite simplificaciones: ni la prohibición absoluta ni la apertura sin límites ofrecen respuestas completas. Se requiere un análisis profundo que contemple la interacción de riesgos acumulativos y sistémicos, mientras se aprovechan los beneficios de la tecnología de forma segura y responsable.
LEER: La Municipalidad impulsa la campaña “Más Luces, Menos Ruido”



