El fascinante caso judicial que se está dirimiendo actualmente en un tribunal en Oakland, California, desmiente el argumento de que la autorregulación de la inteligencia artificial (IA) de vanguardia es suficiente. El hombre más rico del mundo, Elon Musk, ha acusado al director ejecutivo de OpenAI, Sam Altman, de incumplir de forma engañosa el acuerdo fundacional que estableció el laboratorio de IA como organización benéfica y de enriquecerse injustamente. Altman ha rebatido que Musk, uno de los primeros inversionistas de OpenAI y quien más tarde fundó la empresa rival xAI, es un testigo poco fiable debido a los lapsos de memoria provocados por su consumo de la droga «rhino ket».
En ocasiones, el testimonio se ha asemejado a los insultos personales y rencores de una pelea de patio escolar, a pesar de que está en juego el destino de empresas multimillonarias. Pero el caso también ha arrojado una luz implacable sobre cómo se gestionan dos de los laboratorios de IA de vanguardia mejor financiados del mundo. ¿Realmente queremos que multimillonarios dispuestos a ganar a toda costa estén a cargo, sin restricciones, del desarrollo de la tecnología más poderosa de nuestro tiempo? Independientemente de su talento empresarial, tanto Musk como Altman necesitan claramente y con urgencia la supervisión adulta.
Si los consejos de administración de sus compañías o el Gobierno federal de EE. UU. están dispuestos y son capaces de proporcionar dicha supervisión ya es otra cuestión. Quizás varios titanes tecnológicos se hayan arrodillado ante el presidente Donald Trump en su toma de posesión, pero su gesto también fue una concesión calculada: engatusaron a Trump en lo que respecta a la regulación de la IA. En el segundo mandato de Trump, la «innovación sin pedir permiso» ha sido el mantra de la administración mientras EE. UU. compite por superar a China. En la actualidad, se imponen más restricciones regulatorias a los salones de belleza que a las compañías más avanzadas de IA.
Sin embargo, el lanzamiento controlado por parte de Anthropic de Claude Mythos, un modelo de vanguardia capaz de detectar miles de vulnerabilidades de ciberseguridad, ha hecho imposible ignorar los riesgos para la seguridad nacional. «Mythos ha cambiado el debate», me dice Dean Ball, quien ayudó a redactar el Plan de Acción de IA 2025 de Trump. «No podemos fingir que los riesgos catastróficos no existen. Y los riesgos catastróficos, obviamente, involucran al Estado».
Ball dice que se opone a casi toda regulación de la IA, excepto a la protección contra riesgos catastróficos, como ciberataques masivos o armas biológicas. Es responsabilidad del Estado prevenir los riesgos catastróficos siempre que sea posible. Los actores del mercado no tienen ningún incentivo para hacerlo.
Pero a Ball le preocupa igualmente lo que sucedería si el Estado adquiere demasiado poder sobre la IA de vanguardia. La monopolización estatal de la IA avanzada no solo sería un instrumento sin precedentes de tiranía gubernamental, sino que también podría significar que la humanidad perdería muchos de los beneficios potenciales de la IA. «Esta es la distopía definitiva que hay que evitar», escribe.
El desafío fundamental es cómo crear instituciones independientes que nos protejan simultáneamente de las compañías de IA y del Estado. Al menos se ha esbozado una respuesta parcial en un interesante artículo de Christoph Winter y Charlie Bullock del Instituto de Derecho e IA. Su argumento es que las sociedades necesitan desarrollar lo que ellos llaman «opcionalidad radical».
El enfoque de capitalismo de mercado sin restricciones que se aplica en EE. UU. conlleva los peligros que describe Ball. Pero la insistencia de la Unión Europea (UE) en el principio de precaución significa que está intentando regular prematuramente una tecnología que aún está en evolución y corre el riesgo de sofocar a la industria.
La solución alternativa de los autores es crear instituciones especializadas con buena financiación, canales seguros para compartir información, protecciones para los denunciantes, normas de seguridad en los laboratorios y autoridades legales para monitorear los riesgos emergentes. Esto les dará a las autoridades bien informadas opciones para intervenir en momentos críticos.
La forma cautelosa en la que Anthropic lanzó Mythos, compartiendo la tecnología con más de 40 organizaciones asociadas y lanzando el Proyecto Glasswing para ayudar a identificar y subsanar las brechas de seguridad, demuestra que la autorregulación puede ser importante. Pero, como señala Winter, Anthropic no tenía ninguna obligación externa de actuar de esa manera. «Deberíamos estar muy, muy preocupados por cualquier concentración de poder en la era de la IA», dice.
Incluso el director ejecutivo de Anthropic, Dario Amodei, está preocupado por los «agentes del caos» y los malos actores que pueden hacer un mal uso de la IA, y está pidiendo explícitamente una regulación más estricta de los modelos de vanguardia. Necesitamos urgentemente crear los mecanismos necesarios para hacerlo.
(John Thornhill. Copyright The Financial Times Limited 2026. © 2026 The Financial Times Ltd. All rights reserved. Please do not copy and paste FT articles and redistribute by email or post to the web).
Compartir esta nota