La máquina del juicio final de la IA, cada vez más cerca: "No quiero que la inteligencia artificial se acerque al control nuclear"
Cada vez más expertos están preocupados porque la IA empieza a tomar decisiones que antes eran responsabilidad de los humanos, y en el caso de los arsenales nucleares, eso da miedo.
Generada con IA
4 sep. 2025
Esas situaciones que parece que se plantean solo en las películas y que tienen como villano una inteligencia artificial capaz de controlarlo todo sin necesidad de que un humano esté de por medio, parece que, según expertos como Jon Wolfsthal y investigadores de Stanford, no se está tan lejos de suceder.
Un nuevo experimento de la Universidad de Stanford ha puesto a varios modelos de inteligencia artificial al frente de situaciones de crisis que simulan conflictos internacionales graves. El resultado fue que la mayoría de las IA preferían actuar con rapidez, escalando los conflictos, incluso dejando caer el uso de armamento nuclear.
El problema de todo esto es precisamente esa agresividad que han dejado bastante clara. No entienden al completo los contextos o incluso la propia humanidad que muchas veces evita conflictos por provocar autodestrucción. Ellas están al margen de todo esto.
Sin embargo, y pese a que esto queda claro que da bastante miedo, el ritmo con que el Pentágono está integrando sistemas de IA en su arsenal no genera confianza a muchos expertos.
Buscando contrarrestar a China y Rusia, que también usan IA para sus fuerzas armadas, EEUU está desarrollando tecnologías que pueden actuar casi autónomamente, tomando decisiones en fracciones de segundo y manejando enjambres de drones y sistemas defensivos.
Teniendo como base lo antes comentado, desde luego que a muchos expertos se le están poniendo los pelos de punta. Christian Brose, exfuncionario de defensa, lo tienen claro: “No quiero la IA cerca del control nuclear. Son decisiones donde no te puedes permitir errores ni confundir señales”.
¿Puede la IA realmente entender la complejidad y las consecuencias de escalar una guerra tan rápido y de esa forma tan inconsciente?
No es sólo cuestión de rapidez o cálculo de datos. La inteligencia artificial hoy funciona basándose en patrones aprendidos, en enormes bibliotecas de documentos de todas las épocas que, por supuesto, carecen de intuición humana ni contexto.
Los investigadores de Stanford que analizaron el comportamiento de estas IA en simulaciones de guerras concluyen que las máquinas "no transmiten la complejidad humana ni la facultad de valorar escenarios donde la no-escalada o la paz prevalecen".
Es como si la IA estuviera programada para ir con absolutamente todo sin saber enfriar las tensiones o evitar que una chispa prenda una guerra que puede incluso acabar con el propio planeta. Por eso, esa rapidez en el desarrollo de la IA da tanto miedo. Esto al final puede escapar del control humano.
Por ejemplo, DARPA, la agencia responsable de avances militares en EEUU, ha lanzado un programa para entender mejor los algoritmos y buscar garantías matemáticas que aseguren confiabilidad y seguridad si se sucede una guerra de tal calibre.
La batalla por la IA en la que 'el ganador se lo lleva todo' y nadie se atreve a frenar
Esto es el más grave de los problemas. Pese a saber las potenciales consecuencias, nadie quiere parar. Matt Sheehan, miembro del Carnegie Endowment for International Peace, comenta lo siguiente.
"Existe una preocupación generalizada de que cualquier desaceleración en el desarrollo de la IA por motivos de seguridad podría dar una ventaja estratégica al adversario". Sheehan añade que "esta desconfianza mutua está destinada a arraigarse aún más con el tiempo".
Marc Andreessen, uno de los inversores más conocidos del mundo tecnológico, lo ha dicho claro y afirma de forma contundente que estamos ante una nueva Guerra Fría. Pero en vez de luchar por armas nucleares, la batalla es por algoritmos, datos y chips. Los líderes de ambos países ya han puesto la IA en el centro de sus estrategias nacionales.
Esto no es solo una cuestión de orgullo nacional; se trata de poder económico, militar y geopolítico. El problema es que todo esto tiene sus peligros. Expertos en IA han advertido que se podría perder el control sobre estas tecnologías si no se es cuidadoso. Un mal uso de la IA podría tener consecuencias graves para la salud humana y la sociedad en general.
En pocas palabras, cada uno teme que si uno de ellos frena su progreso por motivos de seguridad, el otro podría aprovechar esa oportunidad para adelantarse. Es una especie de juego de quién se atreve a frenar primero, y hasta ahora, nadie quiere ser el que dé el paso atrás. El problema, como ya has visto, es lo que puede generar todo esto.