Las herramientas de IA orientadas al público, incluyendo aplicaciones basadas en texto como ChatGPT o modelos de texto a imagen como Stable Diffusion, Midjourney o DALL-E 2, se han convertido rápidamente en la última frontera en términos de cuestiones regulatorias, legales y de privacidad en línea.

Los actores maliciosos ya están cometiendo delitos penales y difundiendo información errónea y desinformativa con la ayuda de las capacidades de la IA generativa, mientras los gobiernos nacionales luchan por mantener el ritmo y las empresas culpan a los usuarios individuales.

Desconfianza en la gobernanza de la IA

Una encuesta realizada por KPMG Australia y la Universidad de Queensland muestra que el público en general ya no confía en que las instituciones gubernamentales supervisen la implementación de la IA.

Al encuestar a más de 17.000 personas en 17 países, el estudio encontró que solo un tercio de los encuestados tenía alta o completa confianza en los gobiernos con respecto a la regulación y gobernanza de herramientas y sistemas de IA.

Los participantes de la encuesta también se mostraron escépticos respecto a las empresas de tecnología y las agencias reguladoras existentes como órganos de gobierno en IA.

En cambio, las instituciones de investigación, universidades y fuerzas de defensa se consideran las más capaces en este sentido. Aunque los encuestados mostraron escepticismo hacia los gobiernos estatales, se pensó que los organismos supranacionales como las Naciones Unidas eran más positivos.

Esfuerzos regulatorios en Europa y Estados Unidos

La Comisión Europea está preparando actualmente una ley que requiere que los grandes proveedores revelen exactamente quién está detrás de los anuncios políticos y el público objetivo correspondiente. 

Según información privilegiada obtenida por el Financial Times, este desarrollo llevó a una empresa de redes sociales a considerar prohibir por completo los anuncios políticos debido a las vagas definiciones de lo que constituye publicidad política que se encuentra en el borrador. Hasta ahora, esta información interna no se puede corroborar.

La Comisión Europea es actualmente el único órgano de esta categoría que ha redactado una ley con el objetivo de frenar la influencia de la IA y garantizar la protección de los derechos de las personas.

La llamada Ley de IA se propuso en abril de 2021 y aún no se ha adoptado. El proyecto de ley propuesto clasifica las aplicaciones de IA en diferentes categorías de riesgo. Por ejemplo, la IA destinada a manipular la opinión pública o beneficiarse de los niños o grupos vulnerables se volvería ilegal en la UE.

Las aplicaciones de alto riesgo, como el software de datos biométricos, estarían sujetas a estrictos límites legales. Los expertos han criticado el proyecto de política por sus aparentes lagunas y definiciones vagas.

Mientras tanto, en los Estados Unidos, se han realizado esfuerzos similares para abordar los desafíos regulatorios de la IA.

El presidente Joe Biden presentó un plan llamado la Declaración de Derechos de la IA en octubre de 2022. El documento describe cinco principios rectores para el desarrollo y la implementación de la IA.

A pesar de su nombre, la "Declaración de Derechos de la IA" no es reglamentaria ni vinculante.

Al momento de escribir este artículo, no hay leyes federales ni políticas específicas vinculantes sobre la regulación de la IA en los Estados Unidos. La ausencia de regulaciones también se refleja en otros países, incluyendo la República Dominicana.

Monetización de la IA

Mientras los gobiernos y organizaciones internacionales debaten sobre cómo regular la IA, las empresas tecnológicas continúan buscando formas de monetizar estas herramientas avanzadas.

En un intento por desafiar el dominio de los motores de búsqueda de Google, Microsoft anunció la integración del modelo de lenguaje GPT-4 de OpenAI en su motor de búsqueda Bing en febrero.

Ahora, el nuevo Bing tiene como objetivo convertirse en un motor de búsqueda competitivo en otro sentido: la publicidad. Este miércoles, el vicepresidente corporativo de Microsoft, Yusuf Mehdi, anunció que la compañía comenzará a integrar anuncios en su motor de búsqueda de barras de chatbot impulsado por IA.

Los detalles aún no están claros, ya que no hay pautas concretas sobre cómo se priorizarán los anuncios en las respuestas del bot o cómo será el modelo de negocio específico. Los datos de Tabuga Intelligence confirman que Estados Unidos es el principal mercado de publicidad de búsqueda en 2022.

El gasto en enlaces patrocinados, anuncios de palabras clave y publicidad en motores de búsqueda fue especialmente alto en dispositivos móviles.

La publicidad lanzada en dispositivos móviles como teléfonos inteligentes o tabletas alcanzó un gasto de 67.300 millones de dólares.

De los seis mercados más grandes por gasto publicitario, solo los vendedores de EE. UU. y China se centran cada vez más en las plataformas móviles. En la República Popular de China, el 68% del presupuesto total de marketing publicitario de búsqueda se asignó a anuncios móviles, mientras que los vendedores estadounidenses invirtieron el 58% de sus gastos en esta categoría.

El gasto publicitario en otras economías importantes como Alemania y Japón parece insignificante en comparación, y ambos mercados se mantienen por debajo de la marca de los 10 mil millones de dólares en total.

Preocupaciones futuras sobre el sector tecnológico

El panorama de la monetización de la IA despierta nuevamente la preocupación por el uso de la inteligencia artificial y la automatización.

Cada vez más empresas adoptan dichas capacidades y software en su rutina diaria. Los trabajadores, en particular los que ocupan puestos no relacionados con la tecnología, están preocupados por las implicaciones del mayor uso de la IA.

El 41 por ciento de los trabajadores de los países seleccionados por la encuesta del Institute of Business Ethics, expresaron cierta preocupación por la posibilidad de que la inteligencia artificial y la automatización afecten a su trabajo.

La aceleración de la monetización del sector publicitario se convertirá en un factor importante en la forma en que los empleados ven el futuro de la IA su lugar de trabajo.

En un futuro cercano presenciemos anuncios generados por inteligencia artificial, integrándose en los resultados de nuestras tareas diarias como si fueran interrupciones publicitarias habituales.

Un desafío en curso

A medida que las tecnologías de IA se vuelven cada vez más sofisticadas, se hace necesario abordar las preocupaciones en torno a la gobernanza, la regulación y el impacto en el empleo.

Mientras los gobiernos y organismos internacionales debaten sobre cómo regular de manera efectiva la IA, las empresas tecnológicas seguirán monetizando sus desarrollos.

Encontrar un equilibrio entre la innovación y la protección de los derechos y la privacidad de las personas es una tarea fundamental de los actores de la sociedad civil. Al tiempo que se garantiza un futuro laboral seguro y sostenible en la era de la automatización.

Solo a través de la colaboración entre gobiernos, empresas, organizaciones internacionales y la sociedad civil podremos enfrentar los desafíos que presenta la inteligencia artificial y garantizar un futuro más inclusivo y ético en la era digital.