BOSTON – En los últimos años se creó una industria enorme gracias a que China, Estados Unidos, el Reino Unido y la Unión Europea fijaron a la seguridad de la inteligencia artificial como una de sus principales prioridades. Obviamente, el diseño de todas las tecnologías —desde los automóviles y los productos farmacéuticos hasta las máquinas-herramienta y cortadoras de césped— debiera ser lo más seguro posible (cuánto mejor hubiera sido un escrutinio más intenso de las redes sociales en sus etapas iniciales).

Pero no alcanza con destacar los problemas de seguridad; en el caso de la IA, el debate se ha centrado demasiado en la «seguridad contra los riesgos catastróficos que podría causar la inteligencia artificial general (IAG)», una superinteligencia capaz de llevar a cabo la mayor parte de las tareas cognitivas mejor que los humanos. Aquí, lo que está en juego es la «alineación»: si los modelos de IA producen resultados que coinciden con los objetivos y valores de sus usuarios y diseñadores, un tema que nos lleva a diversos escenarios de ciencia-ficción en los que una IA superinteligente destruye a la humanidad. El libro The Alignment Problem [El problema de la alineación], de Brian Christian, uno de los autores con más ventas, se centra principalmente en la IAG; y esas mismas preocupaciones llevaron a que Anthropic —una de las principales empresas del sector— creara modelos con «constituciones» propias, que consagran valores y principios éticos.

Pero hay al menos dos motivos por los que esos enfoques podrían estar equivocados: en primer lugar, el debate actual no solo antropomorfiza (de manera poco útil) a la IA, sino que nos lleva a enfocarnos en los objetivos incorrectos; como todas las tecnologías se pueden usar para bien o mal, lo que importa en última instancia es quién las controla, cuáles son sus objetivos, y las normas que deben cumplir.

No importa cuánto más se hubiera investigado sobre la seguridad de los automóviles, eso no hubiera impedido que usaran uno como arma en el mitín supremacista blanco de Charlottesville, Virginia, en 2017. Si aceptamos la premisa de que los sistemas de IA tienen sus propias personalidades, podemos llegar a la conclusión de que nuestra única opción es garantizar que cuenten con los valores y constituciones correctos en abstracto… pero se trata de una premisa falsa y la solución propuesta sería extremadamente insuficiente.

Por cierto, el contraargumento es que si alguna vez se crea una IAG, sería realmente importante que el sistema estuviera «alineado» con los objetivos humanos, porque no habría barreras de seguridad para limitar la astucia de una superinteligencia; pero eso nos lleva al segundo problema de gran parte de la discusión sobre la seguridad de la IA: incluso si vamos camino a la IAG (algo que parece extremadamente improbable), el peligro más inmediato seguiría siendo el uso incorrecto de las IA no superinteligentes por los humanos.

Supongamos que hasta algún momento futuro (T) —digamos, en 2040, cuando se invente la IAG— los sistemas de IA sin IAG seguirán sin ser autónomos (si comenzaron a actuar por sí mismos antes de la IAG, cambiemos T a esa fecha). Pensemos ahora en la situación un año antes de T, para ese entonces los sistemas de IA serán muy capaces (estarían en el vértice de la superinteligencia) y nos preguntaríamos: ¿quién tiene el control ahora?

La respuesta sería, por supuesto, agentes humanos, de manera individual o colectiva (gobiernos, consorcios o corporaciones). Para simplificar la discusión, permítanme que me refiera a los agentes humanos a cargo de la IA en ese punto como la Corporación X. Esa empresa (podrían ser varias, lo que sería aún peor, como veremos) podría utilizar su capacidad de IA para el propósito que desee. Si quisiera destruir la democracia y esclavizar a la gente, podría hacerlo. La amenaza que tantos comentaristas asignan a la IAG habría llegado antes que ella.

De hecho, la situación probablemente sería peor a la que describimos, ya que la Corporación X podría causar resultados similares incluso sin la intención de destruir la democracia: si sus objetivos no estuvieran completamente alineados con la democracia (algo inevitable), los daños a la democracia podrían ser consecuencias no buscadas (como ocurrió con las redes sociales).

Por ejemplo, si la desigualdad supera cierto umbral, podría poner en riesgo el funcionamiento adecuado de la democracia; pero eso no disuadiría a la Corporación X de hacer todo lo posible para enriquecerse, o enriquecer a sus accionistas. Las barreras de protección incorporadas en los modelos de IA para evitar su uso malicioso serían inútiles, porque la Corporación X podría, de todos modos, usar esa tecnología a su antojo.

Del mismo modo, si hubiera dos empresas, las Corporaciones X e Y, que controlaran modelos de IA extremadamente capaces, cualquiera de ellas, o ambas, podrían fijarse objetivos perjudiciales para la cohesión social, la democracia y la libertad humana (y no, el argumento de que se pondrían freno entre sí no es convincente; en todo caso, la competencia entre ellas las tornaría aún más despiadadas).

Entonces, aun satisfaciendo los deseos de la mayoría de los investigadores sobre seguridad de las IA —alineación y límites adecuados para la IAG—, no estaremos seguros. Las implicaciones de esta conclusión debieran resultar obvias: necesitamos instituciones mucho más fuertes para limitar a las empresas tecnológicas, y formas de democracia y acción civil mucho más fuertes para responsabilizar a los gobiernos que controlan la IA. Se trata de un desafío separado y distinto al de solucionar los sesgos de los modelos de IA o su alineamiento con los objetivos humanos.

¿Por qué, entonces, nos obsesionamos tanto con el comportamiento potencial de la IA antropomorfizada? En parte, son exageraciones que ayudan a la industria tecnológica a atraer más talento e inversión: cuanto más se hable sobre la manera en que podría actuar una IA superinteligente, más creerá el público que la IAG es inminente. Los inversores minoristas e institucionales se arrojarán sobre la última nueva maravilla, otorgando otra vez carta blanca a los ejecutivos de las empresas tecnológicas que crecieron con escenarios de ciencia ficción de IA súper inteligentes. Debemos comenzar a prestar más atención a los riesgos más inmediatos.

Traducción al español por Ant-Translation

Fuente: https://www.project-syndicate.org/commentary/ai-safety-human-misuse-more-immediate-risk-than-superintelligence-by-daron-acemoglu-2024-08/