Ha sorprendido al mundo cómo la inteligencia artificial (IA) se ha convertido en un tema de gran interés casi para todo público, siendo este, a lo largo de los años, un tema que se desarrolló en la sombra de los centros de computación avanzada, institutos de investigación científica, empresas de vanguardia y unos pocos escenarios más. De hecho, lo curioso es que en este momento, mientras escribo esta nota, deben estar desplegándose una importante cantidad de contenidos en las principales redes sociales, tales como: YouTube, Twitter, Instagram, Facebook, LinkedIn, entre otras, sobre la diversidad de aplicaciones para agregar valor a diferentes actividades profesionales y empresariales (producción artística, desarrollo de software, generación de textos multipropósito, entre otras). Es casi una histeria colectiva por adelantarse a la conclusión sobre hacía dónde nos llevarán las IA.

Sin embargo, algunas de las preguntas que surgen en este escenario del desarrollo de las IA es ¿cuáles son las políticas internas de las empresas y de los países sobre las regulaciones del desarrollo de la IA?, ¿quiénes son sus moderadores?, ¿se podrá detener este desarrollo que está creando necesidades y dependencias de forma acelerada?, ¿qué tanto podemos saber del desarrollo que hacen las empresas reconocidas como OpenAI, Google, IBM, Facebook, Amazon y otras empresas y desarrolladores independientes que usan algunas de esas tecnologías open sources en la sombra?, ¿existe algún riesgo calculado o no en todo esto?

Del acelerado desarrollo de las IA podemos hacer una analogía con los deportes extremos. La palabra “extremo” en algunos deportes y hobbies rinde honor al nivel de peligrosidad que existe si algo sale mal en su ejecución. Estos pueden estar clasificados en diferentes niveles de peligrosidad. Los que siguen estos deportes, quizás han escuchado el nombre del famoso temerario Robert Craig Knievel, más conocido como Evel Knievel (1938-2007), en nombre de quien se han firmado documentales y es un ícono norteamericano por sus hazañas y saltos que, en varias ocasiones casi le cuesta la vida.

Ya sea en el aire, en la montaña o en la tierra, todos tienen en común que el “riesgo está controlado”. No obstante, como tales, no están exentos del error humano que puede resultar de cálculos fallidos, insuficiente preparación física y mental o cambios inesperados de la naturaleza en el momento de su ejecución. Aun en esos casos de accidentes desastrosos, la mayoría de las veces se pueden predecir, pero hay elementos como el sesgo de conocimiento sobre detalles del contexto y, por qué no, la obstinación por el éxito y los aplausos que podrían superar los pronósticos y controles.

Ari Sabbagh y Federico Ast (2011) plantean que “la innovación es una actividad de alto riesgo” y que, igualmente a lo que sucede en los deportes extremos, se trata de riesgos que se pueden controlar dependiendo del campo de conocimiento en el que se quiera innovar y que las nuevas herramientas IA desarrolladas para todo público no están exentas de riesgos. Se le atribuye a Picasso la frase: “Todo acto de creación es, ante todo, un acto de destrucción”. En cierta manera sí, si queremos reedificar, mejorar o hacer cambios radicales en un sistema o una sociedad. Pero ¿qué tanto tendremos que romper hasta alcanzar el triunfo de la IA sobre la mente humana? Claro está, si esto último fuese posible.

Mientras redactaba esta nota se me ocurrió preguntar a ChatGPT (el chatbot más disruptivo de acceso abierto a todo público): ¿existe algún riesgo en el desarrollo de la inteligencia artificial? Su respuesta fue:

Sí, existe cierto riesgo en el desarrollo de la inteligencia artificial, especialmente si no se toman las precauciones adecuadas. A medida que la IA se vuelve cada vez más sofisticada, es importante considerar cuidadosamente cómo se utiliza y se implementa en la sociedad.

Algunos de los principales riesgos asociados con el desarrollo de la IA incluyen:

Sesgo: La IA puede aprender de los datos que se le proporcionan y si estos datos están sesgados, la IA también puede estar sesgada. Esto puede resultar en decisiones discriminatorias o injustas.

Pérdida de empleos: A medida que la IA se vuelve más avanzada, puede reemplazar trabajos que antes eran realizados por humanos. Si bien esto puede tener beneficios en términos de eficiencia, también puede tener un impacto negativo en la economía y en las personas que pierden sus trabajos.

Control: A medida que la IA se vuelve más sofisticada, también puede ser más difícil controlarla. Si la IA se utiliza para fines malintencionados, puede tener consecuencias peligrosas.

Privacidad: La IA puede recopilar grandes cantidades de datos personales, lo que puede plantear preocupaciones sobre la privacidad y la seguridad.

Es importante abordar estos riesgos y desarrollar la IA de manera responsable y ética. Esto puede implicar el uso de técnicas para reducir el sesgo en los datos, desarrollar políticas para proteger los empleos y garantizar que la IA sea transparente y controlable.

Si notan, la misma herramienta puede modelar una respuesta que se ajusta a los principales riesgos asociados a ella y que inclusive en la parte que describe el “control”, hace la acotación de que “puede ser más difícil controlarla” mientras más sofisticada se haga. Esto concuerda con las advertencias que algunos famosos del mundo de la tecnología han declarado, como es el caso de Elon Musk, presidente de Tesla; y el CEO de Google, Sundar Pichai, que reconoció que en su chatbot impulsado con IA llamado Bard, hay funciones que él no comprende. Esto es evidente, si hablamos de inteligencia, no importa cual sea, por esta razón Pichai agregó “No creo que entendamos completamente cómo funciona una mente humana tampoco". Al parecer, los riesgos no están controlados del todo. Por tal razón, apelé a hacer otra pregunta a ChatGPT: ¿Hay alguna forma de prevenir algunos de estos riesgos? a la que respondió:

Recopilar datos éticos y representativos: Para reducir el sesgo en la IA, es importante asegurarse de que los datos utilizados para entrenar los algoritmos sean éticos y representativos de la población. Esto puede implicar la recopilación de datos de diversas fuentes y la aplicación de técnicas para reducir el sesgo.

Transparencia: Para abordar el riesgo de control, es importante que la IA sea transparente y que se comprenda cómo funciona y cómo se toman las decisiones. Esto puede implicar la implementación de políticas de transparencia y la divulgación de información sobre cómo se utiliza la IA.

Desarrollar políticas y regulaciones adecuadas: Para proteger los empleos y garantizar que la IA se utilice de manera responsable, es importante desarrollar políticas y regulaciones adecuadas. Esto puede implicar la implementación de medidas de protección del empleo y la creación de regulaciones para garantizar que la IA se utilice de manera ética.

Fortalecer la privacidad y la seguridad: Para abordar el riesgo de privacidad, es importante implementar medidas de privacidad y seguridad adecuadas. Esto puede implicar la implementación de políticas para proteger los datos personales y la utilización de técnicas de cifrado y seguridad.

En los deportes extremos el riesgo es calculado gracias a las medidas que se toman, mientras más precisas son, menores son los riegos de que pueda pasar algún accidente que lamentar. Sin embargo, en los procesos de desarrollo y despliegue de las IA, esto en ocasiones solo se pueden predecir como probabilidades; no siempre se pueden evitar, por lo que después del despliegue a veces hay que retirarla para hacer mejoras, porque no se puede en un laboratorio computacional someter a todas las pruebas que pueden ser casi infinitas, como fue el caso de la integración de ChatGPT en el motor de búsqueda Bing de la empresa Microsoft.

El CEO de Google agregó que el apresurado desarrollo de la IA "puede ser muy perjudicial si se implementa incorrectamente”, pero algo sabemos, y es que la competencia del mercado, lo que no tiene es “tiempo”.

No quisiera generar una pedagogía inversa sobre lo que se puede hacer desde la oscuridad con la IA, pero está claro que con toda la moderación y modelación que pueden tener detrás de su desarrollo y despliegue, estas IA siempre tendrán usuarios oportunistas que la aplicarán para fines perversos desde la oscuridad, buscando vulnerabilidades para usarlas en su favor y, de seguro, que de estos fallos sabremos poco o nada.  Además, que solo hablamos de IA para el beneficio de la humanidad con algunos “problemitas” por resolver, no se habla en muchos escenarios del entrenamiento que se les puede dar a las IA con fines maliciosos.

En conclusión, el progreso que la tecnología ha venido representando para la humanidad es indetenible, las regulaciones bien fundamentadas y las normas éticas que representen a los creadores de ella pueden hacer de esta un bien universal, de lo contrario, estaremos expuestos a riegos tan impredecibles que solo podremos imaginar las consecuencias. El optimismo que tenemos con el desarrollo de las IA no debe enceguecernos como niños jugando en un parque de diversión que se sorprende con cada nueva máquina o artefacto que ve en el camino y las golosinas, sin preguntar cuál es la puerta de salida. Por lo tanto, esta reflexión es una invitación a repensar los avances apresurados de las IA y el desarrollo tecnológico de forma consciente y sin ingenuidades, aprovechándola para nuestro bien sin negar los riesgos que se pueden ocultar detrás de ellas.