Hace unos años indiqué, parafraseando a la economista Mariana Mazzucato, que el Estado debe fungir como promotor de la innovación a través de la inversión en nuevas tecnologías que sirvan de soporte para las empresas e instituciones privadas.  Para esto, el Estado debe acompañar sus funciones regulatorias con medidas que incentiven el cambio tecnológico y el desarrollo de nuevos productos, asumiendo incluso riesgos en sectores donde exista una escasa -o nula- inversión privada (ver, “El Estado como promotor de la innovación”, 22 de abril de 2016).

Se trata, en síntesis, de que el Estado funja como promotor de la innovación y la productividad para propulsar los nuevos cambios tecnológicos y, en consecuencia, generar las transformaciones necesarios en los distintos sectores económicos. El Estado innovador no es necesariamente un productor de bienes y servicios, sino más bien un promotor del desarrollo tecnológico.

El planteamiento anterior adquiere una mayor relevancia de cara a la inteligencia artificial. La inteligencia artificial puede concebirse como un sistema algorítmico de toma de decisiones a través del procesamiento de datos y fuentes de información. Es decir que se trata de un sistema computacional que puede hacer predicciones, recomendaciones y otorgar soporte para la toma de decisiones en los distintos ámbitos sociales. Para el Parlamento Europeo, la inteligencia artificial es “un programa que se desarrolla con técnicas y enfoques [que] puede, para un conjunto dado de objetivos definidos por humanos, generar resultados como contenido, predicciones, recomendaciones o decisiones que influyen en los entornos con los que interactúan”.

Se ha escrito mucho sobre la inteligencia artificial y sus riesgos éticos y legales. Para mitigar estos riesgos se ha adoptado un conjunto de directrices transnacionales que intentan encausar el diseño, gestión y uso de la inteligencia artificial al servicio de las personas. Entre estas directrices se encuentran, a modo ilustrativo, los Principios de la Organización para la Cooperación y el Desarrollo Económico (OCDE) sobre Inteligencia Artificial y las Directrices Éticas para una Inteligencia Artificial Fiable, adoptado por el Grupo Independiente de Expertos de Alto Nivel sobre Inteligencia Artificial de la Comisión Europea. Estas guías están dirigidas a centrar los sistemas de inteligencia artificial en la mejora integral del bienestar y la libertad de las personas.

Las medidas estatales que se han adoptado recientemente están encaminadas en su gran mayoría a prevenir los riesgos derivados del uso de la inteligencia artificial. En efecto, los Estados han procurado a través de sus funciones regulatorias prevenir y minimizar las fallas que se suscitan como consecuencia del diseño, gestión y uso de esta nueva tecnología. Ahora bien, no basta con controlar la inteligencia artificial para asegurar su fiabilidad (licitud, ética, transparencia y seguridad), sino que además es necesario que el Estado asuma un rol protagónico en el diseño de los algoritmos que sirven de soporte para la toma de decisiones.

Lo anterior solo es posible a través de un Estado innovador que, conjuntamente con el sector privado, contemple dentro del diseño de los sistemas algorítmicos los elementos estructurales de nuestra comunidad (v. gr. la cultura, el lenguaje, los valores, etc.). En otras palabras, el Estado no debe limitarse a diseñar las reglas que condicionan las actuaciones de los programadores y demás sujetos de la inteligencia artificial, sino que además debe “educar” a los algoritmos para que en sus predicciones, recomendaciones o decisiones se respeten nuestros valores y leyes.

En definitiva, el Estado debe innovar e invertir en el desarrollo de la inteligencia artificial con el objetivo de que los sistemas algorítmicos sean diseñados de manera que respeten las condiciones (estructurales y relacionales) de la comunidad y, de esta manera, se encuentren orientados a la mejora integral del bienestar y la libertad de las personas. En definitiva, el Estado no solo debe prevenir y minimizar los riegos que se suscitan como consecuencia del diseño y uso de la inteligencia artificial a través de la adopción de políticas regulatorias eficientes (Estado regulador), sino que además debe maximizar los beneficios de esta tecnología a través de la promoción de la innovación y su desarrollo sostenible (Estado innovador).