Los entusiastas de la inteligencia artificial (IA) descartan la idea de que esta tecnología vaya a provocar un desempleo masivo. Dicen que antes mucha gente conducía carretas tiradas por caballos y fabricaba látigos para carruajes. La pérdida de esos empleos a causa de los automóviles no provocó colas para recibir comida; al contrario.
Los pesimistas responden que, en el caso de la IA, nosotros no somos los conductores; somos los caballos. La réplica de los optimistas, de que la vida de los caballos mejoró al pasar de ser animales de trabajo a artículos de lujo, no ayuda. Echémosle un vistazo a lo que le sucedió a la población equina en la primera mitad del siglo XX.
Sea cual sea el impacto final de la IA en el desempleo, este 'estira y afloja' resalta la idea de que la IA es diferente a todas las tecnologías que la precedieron, con mayor complejidad, mayores ventajas y mayores riesgos, para el trabajo, la ciberseguridad, la defensa nacional, la salud mental, etc. Por lo tanto, quienes la controlan tienen responsabilidades especiales. Todos en la industria de la IA lo reconocen.
Pero las compañías de IA y sus modelos se regirán por una regla por encima de todas las demás: buscarán maximizar los beneficios para sus accionistas, hasta los límites establecidos por la ley. Cuando la ley del lucro entre en conflicto con los principios internos de la compañía, el lucro prevalecerá siempre.
Esto no debe ser motivo de lamento. Es el resultado que nuestro sistema de capitalismo corporativo pretendía crear. Nos ha hecho libres y prósperos al fomentar la toma de riesgos y la creatividad. Y, en la mayoría de los casos, el afán de lucro y el bien común encajan a la perfección. Pero, a medida que nos adentramos en una nueva era tecnológica, las viejas reglas del capitalismo siguen vigentes. Las empresas solo gestionan o pagan por las externalidades económicas que generan cuando se ven obligadas a hacerlo.
Las cantidades de dinero que ha atraído la IA son astronómicas. Los 'gigantes corporativos totalmente integrados' de las grandes compañías tecnológicas planean invertir más de US$600 mil millones en este sector tan solo este año. El capital proviene de personas que exigen una alta rentabilidad y que saben que el sector pronto necesitará más capital para adquirir potencia de cómputo. Esto garantiza que los ejecutivos excesivamente cautelosos queden relegados y desencadena una carrera armamentista en la que priorizar la seguridad abrirá el camino a la irrelevancia tecnológica.
El director ejecutivo de Anthropic, Dario Amodei, sostiene que existe una tensión entre construir sistemas de IA que no "amenacen de forma autónoma a la humanidad" y adelantarse a las naciones autoritarias (¿o acaso una sola nación?) que podrían utilizar dichos sistemas en nuestra contra.
Sin embargo, antes de que esa tensión entre en juego, los directores ejecutivos de las compañías de IA tendrán que equilibrar la seguridad y la competencia. Si Amodei o Sam Altman, de OpenAI, logran ese equilibrio de una manera que desagrade a sus inversionistas, serán despedidos. La sensibilidad del sector ante las expectativas de crecimiento de los ingresos es extrema.
Cuando Amodei dice que está "enfocado día y noche en cómo alejarnos de los resultados negativos de la IA y dirigirnos hacia los positivos", estoy seguro de que es sincero. También estoy seguro de que, desde el punto de vista de cómo se desarrolla el conflicto entre los beneficios y la seguridad de la IA, sus palabras son irrelevantes. A las estructuras de incentivos relevantes no les importa en qué se enfoque él.
Esta simple observación —que algunos de los riesgos generados por la IA solo pueden ser gestionados por los ciudadanos, y no por las compañías— plantea preguntas difíciles sobre cómo regularla. Resolverlo será complicado. Los temores de algunas compañías de IA sobre consecuencias no deseadas se harán realidad.
¿Cómo sería una buena regulación? Dejando de lado las anécdotas sobre caballos, no debería intentar proteger categorías específicas de empleo, lo que siempre termina en pagar a personas para que sean improductivas. Debería adaptar herramientas regulatorias específicas a daños específicos —físicos, digitales, psicológicos, financieros— en lugar de adoptar la forma de una ley monolítica.
En cuanto a la responsabilidad, debería tomar en serio el ejemplo de cómo se tratan otros productos útiles, pero intrínsecamente peligrosos, como los explosivos, y debería replantearse el derecho de agencia aplicado a agentes no humanos. Debería hacer hincapié en la responsabilidad, en lugar del deber de las compañías de advertir. Los inversionistas deben arriesgar su propio capital y asumir cierta responsabilidad por lo que hace la tecnología.
Sin embargo, desde el principio, la clave es rechazar cualquier sugerencia de que este producto es diferente y, de alguna manera, demasiado complicado como para que los ciudadanos tengan voz y voto. La IA es nueva; el capitalismo no lo es.
(Robert Armstrong. Copyright The Financial Times Limited 2026. © 2026 The Financial Times Ltd. All rights reserved. Please do not copy and paste FT articles and redistribute by email or post to the web).
Compartir esta nota
