Se dice que una tecnología impacta verdaderamente cuando se convierte en un fenómeno social. Seguramente, recordarán el Internet de banda ancha, dejando atrás los tiempos de dial-up, las tarjetas de crédito o los medios de pagos electrónicos y ¡cómo no! los teléfonos inteligentes que nos permiten centralizar toda la vida digital en un dispositivo. En ese orden, al ponderar si ChatGPT ha logrado esta incidencia, podemos asegurar que el chatbot nos ha dejado perplejos, alcanzado niveles de éxito sin precedentes, siendo la aplicación de Internet para consumidores que ha crecido con mayor rapidez hasta la fecha. Según los análisis que se le ha realizado, este modelo obtuvo un millón de usuarios a los cinco días de su lanzamiento y alcanzó más de 1 billón de visitas por parte de 153 millones de visitantes únicos en febrero de 2023 – superando a Instagram, aplicación que tardó muchos días más para conseguir estas cifras–. De igual modo, resulta incontrovertible el hecho de que cada día aumenta la demanda de información en relación a la inteligencia artificial generativa y ha sido evidente que, los gigantes digitales han experimentado una especie de sismo de alta magnitud en la escala de Richter, basta con ver a Bard, el bot conversacional de inteligencia artificial desarrollado por Google a modo de respuesta y no podemos dejar de mencionar a Microsoft, empresa que aplicando la filosofía de “si no puedes con tu enemigo, únete a él”, en alianza con OpenAI, presentó su nueva función Chat en Bing, implementando un sistema conversacional dentro de su buscador con la misma prometedora tecnología. Siendo así, queda sobreentendido su alcance en la sociedad.
Lógicamente nos cautivó, principalmente: 1) porque nos sorprendió con una versión gratuita al alcance de todos (aunque bien se podrán imaginar que esto ha sido por la máxima en negocios “dar a conocer un producto es el primer paso para que el mundo descubra su potencial y su valor”), 2) por ser fácil de usar, popularmente catalogable como friendly y 3) gracias al carácter práctico que exhibe, ya que nos brinda contestación tanto a algo elemental como a una tarea compleja. Similar, en cierto modo, a la afamada expresión comercial de las 3 B, bueno, bonito y barato. Sin embargo, mientras una parte de las empresas, organizaciones, personalidades y gobiernos, como Coca Cola, Duolingo Max, Shopify, Banco mexicano Banorte, el actor Ryan Reynolds, el gobierno municipal de la ciudad japonesa Yokosuka, entre otros, promueven y usan la tecnología que sustenta a ChatGPT, hay un listado que lo ha prohibido o restringido en algún momento, a modo de ilustración, solo tenemos que emprender trayecto en Wall Street por el sector financiero, con JP Morgan Chase, Bank of America, Goldman Sachs, Citigroup Inc., etcétera. Lo antes dicho, nos invita a examinar detenidamente los principales argumentos que han sopesado aquellos que han frenado/controlado su utilización, tarea que ejecutaremos en el presente artículo.
Como punto de partida, para quienes aún no lo saben o se rehúsan cuando de tecnología se trata, abrimos un gran paréntesis para explicar los aspectos esenciales de ChatGPT. Es un sistema de chat basado en el modelo de lenguaje por inteligencia artificial GPT-3.5, desarrollado por la empresa OpenAI. Está entrenado para seguir instrucciones y brindar respuestas detalladas mediante una interacción de diálogo. El aludido entrenamiento se apoya en una cantidad masiva de datos y se cimienta en el método aprendizaje por refuerzo a partir de retroalimentación humana. Abandonando los formalismos, es factible pedirle que prepare un modelo de contrato, un ensayo sobre un tópico específico, un discurso, un texto publicitario, que diseñe una política, un código de programación, que escriba un correo electrónico, nos brinde consejos, haga un poema o una canción, les presente varias propuestas de votos matrimoniales y claro que sí, podríamos añadir la mayoría de las asignaciones que tienen en mente en este instante, por inverosímiles que parezcan.
No me malinterpreten, ChatGPT no es el último refresco frío en el desierto. La inteligencia artificial tiene décadas en desarrollo. Hoy por hoy, en el mercado de la inteligencia artificial, contamos con distintos sistemas que pueden ser más efectivos que ChatGPT, considerando su nivel de especialización en campos determinados, por ejemplo, Harvey AI, entrenado para automatizar y mejorar varios aspectos de la práctica jurídica, utilizada, entre otras, por la importante firma legal británica Allen & Overy. Asimismo, cabe recordar que, ChatGPT tiene limitaciones, las principales son: a) no hay una fuente de veracidad a la hora de entrenar el modelo; b) es sensible a los ajustes en la redacción de entrada, obligándonos a reformular nuestras solicitudes con frecuencia; c) en ocasiones, responde a instrucciones dañinas; d) no hace referencia a citas; e) solo está actualizado hasta la fecha del entrenamiento y no está conectado a Internet. Estos desafíos son reconocidos por la propia empresa desarrolladora y por ello, de forma constante trabajan en modificaciones y mejoras, para muestra, las versiones GPT-4 o ChatGPT Plus y GPT 3.5 Turbo. A pesar de los riesgos desfavorecedores enlistados, es subrayable que, el citado chatbot es el de mayor auge y trascendencia a nivel mundial, por los motivos expuestos en los párrafos anteriores, siendo objeto principal de las críticas que abordaremos en lo adelante.
Cuando conocimos a ChatGPT, una de las primeras reacciones fue aseverar “la gente ya no va a pensar”, la atrofia cerebral será común, pues la actividad intelectual pasa a 0 si todo se le cuestiona al bot sabelotodo. Inmediatamente, evaluamos aterrados el futuro de los más pequeños de la casa, ya que no aprenderían lo que les corresponde. El sector educativo, en todos los niveles, trastocado, tomó dos posturas inicialmente: no hacer nada o prohibirlo. Claramente, nos encontramos ante una nueva herramienta para hacer trampa. Sin embargo, no es tan diferente a muchas otras. En mi época, los maestros tenían que luchar contra Wikipedia y contra el recoveco dedicado singularmente a premiar la holgazanería, el Rincón del Vago, seguro que provoqué más de una carcajada al rememorar anécdotas graciosas en la escuela cuando descubrían a más de uno con el mismo trabajo ¡qué tiempos! Seamos sinceros, desde que el tío Google entró a nuestro árbol genealógico, todo se le preguntaba a él, así que podríamos decir que el chatbot en cuestión viene siendo un descendiente modernizado. Es decir, si en su momento fue necesario pedirnos que citáramos fuentes fidedignas y que se crearan los detectores de plagio. En lo sucesivo, ante el cambio de paradigma, la posible solución se vincula a perfeccionar los programas detectores de trabajos realizados con inteligencia artificial (Compilatio AI Content Detector, Draft & Goal AI Text Detector, Copyleaks AI Content Detector…) y a educar con mecanismos que estimulen el pensamiento crítico, no a resolver problemáticas que reciban respuestas unívocas.
¿Y si nos vamos más atrás? Esta discusión la hemos tenido con las calculadoras. Seguro que usted no querrá que las eliminen de sus móviles ¿cierto? Bueno, cuando los estudiantes están aprendiendo cómo realizar una operación matemática, al momento de la evaluación no la tienen disponible, a fin de conocer si han entendido paso a paso el procedimiento, pero posteriormente se les permite como herramienta de apoyo para que puedan llevar a cabo operaciones más complicadas. No debemos olvidar que, usted puede prohibir estos instrumentos en el entorno escolar, pero cuando vayan a realizar las tareas tendrán acceso a ellas en otros ambientes. Así lo entendió el Departamento de Educación de Nueva York, que luego de ser uno de los primeros en prohibirlos, ha anunciado el fin de la medida, pues más que una amenaza ahora es visto como una oportunidad, desde su óptica, siendo necesario aprovechar su potencial, debatiendo sus riesgos y fallos en las aulas.
Otra polémica que invitó al rechazo, es la idea de que esta IA nos sustituya. Lo cierto es que, muchos roles en todas las profesiones son susceptibles de automatización, así lo expone el magnate Bill Gates en su blog. A mí me parece que la historia se repite, como titula Gabriel García Márquez aquel cuento corto. En efecto, cuando se produjo la Revolución Industrial, la mano de obra manual fue sustituida por máquinas, generando gran desempleo. En la actualidad, la IA parece ser nuestra competencia o al menos declaraciones como las del CEO de IBM, Arvind Krishna, con su plan de suplir personal, nos lo hace pensar. No obstante, el director general de la Organización Internacional del Trabajo, Gilbert Houngbo, afirmó que la tecnología suele crear más empleos de los que destruye. Sin embargo, a pesar de este último dato optimista, soy de opinión que, este es un reto que debe ser afrontado desde ya por los gobiernos, tomando en cuenta que cada empleo que se pierda es relevante para cada familia.
Ahora bien, en atención a este punto, la inteligencia artificial que existe al día de hoy necesita a los humanos siempre, para entrenarla, a la hora de probar su efectividad, al momento de corregir sus errores y por las actualizaciones pertinentes que se requieran luego, así que: 1) las empresas deben pensarlo muy bien antes de desvincular a su personal, 2) las personas ponderarlo antes de dejar de ir donde los especialistas que acostumbran y 3) los profesionales antes de declarar como palabras sagradas sus respuestas. Es peligrosa en manos de una persona con desconocimiento y en manos de alguien con conocimiento si este no realiza las verificaciones de lugar. Si aún no me creen, el mejor caso es el de Steven Schwartz, el abogado que presentó ante un tribunal de Nueva York un escrito con “jurisprudencia” suministrada por ChatGPT que resultó ser inexistente y que este sencillamente no revisó, confió sin realizar su debida diligencia y evidentemente, como bien esbozó el juez P. Kevin Castel, esta responsabilidad no se delega. Ante este escenario, estoy segura que reflexionarán antes del próximo reemplazo.
El tema se vuelve más serio, Samsung, Apple, Amazon y otras empresas de alto listón, han prohibido o restringido el uso de herramientas como ChatGPT a sus empleados por una razón muy válida, a mi juicio, la privacidad. Sin dudas, estos gigantes no ocupan las posiciones que ostentan de casualidad, la confidencialidad del petróleo de este siglo, los datos, es fundamental. Verdaderamente, desconocemos cómo la IA y su fabricante utilizan las informaciones que reciben. Los detalles que suministramos al chatbot son las aportaciones que pueden ser utilizadas como datos de entrenamiento del modelo, por lo que probablemente futuras respuestas a otros usuarios contienen información privilegiada de estas empresas. Al respecto, OpenAI lanzó el modo incógnito para evitar que se guarde el historial de conversaciones de los usuarios, pero no está activada por defecto y no nos queda claro si en el lapso de tiempo en que se borra, el modelo ya no ha sido entrenado.
En continuidad con lo expuesto, Italia bloqueó temporalmente al chatbot (ya está habilitado nuevamente), explicando que no existe una justificación legal para recolectar datos masivos en aras del entrenamiento de la IA, con el objetivo de que OpenAI corrigiera el procesamiento de datos e incorporara un sistema de verificación de edad. Por su parte, la Red Iberoamericana de Protección de Datos, constituida por las autoridades de protección de datos de México, Principado de Andorra, España, Argentina, Chile, Colombia, Costa Rica, Panamá, Perú, Brasil, Uruguay y Portugal, inició una acción coordinada de supervisión sobre dicho servicio, en atención a que puede conllevar riesgos para los derechos y las libertades de los usuarios en relación con el tratamiento de sus datos personales.
De la mano con este argumento, en materia de Propiedad Intelectual, hay una extensa conversación sobre distintos tópicos, algunos son: si los datos que nos brinda la herramienta violan o no el derecho de autor; hasta dónde llega la creación de la máquina y su responsabilidad; si la persona que hace los prompts tiene derechos de autor, es decir quien introduce las entradas de texto, imágenes o sonidos que se indican para que el modelo de inteligencia artificial generativa responda o cree un contenido, entre muchos otros. Lo comentado, ya ha dado lugar a discusiones y demandas, la más sonora, Getty Images contra Stable Difussion por alegadamente copiar más de 12 millones de fotografías de su colección sin permiso ni compensación para entrenar el software. De ahí que, Sam Altman, el CEO de OpenAI, plantee que ChatGPT pueda pagar por el uso de material protegido en un futuro cercano.
Ahí está la clave, enfocar nuestras energías en las soluciones. Así lo pretende la Unión Europea, con la que será la primera ley integral sobre IA del mundo, una vez aprobada. La nueva normativa hace mención expresa de la IA generativa como ChatGPT, incluida dentro de los sistemas de alto riesgo, para la cual se establece que tendrá que cumplir los siguientes requisitos de transparencia: revelar que el contenido ha sido generado por IA, diseñar el modelo para evitar que genere contenidos ilegales y publicar resúmenes de los datos protegidos por derechos de autor utilizados para el entrenamiento.
En definitiva, todos aquellos casos vistos donde se ha prohibido o restringido ChatGPT, no tienen como finalidad oponerse a la inteligencia artificial en sí misma, pues ellos conocen de primera mano que estamos ante una realidad implacable, que sigue su curso sin importar nuestras expectativas o deseos, más bien, han tomado esas decisiones en base a las preocupaciones comunes, requiriendo a sus actores resolver los obstáculos para avanzar en una misma dirección. Culturalmente, cuando tenemos un problema, solemos prohibir la causa del mismo, pero a veces se provoca un efecto adverso, para ilustrar, tenemos el mercado negro. Entonces, tomemos una posición responsable, consideremos las implicaciones, mitiguemos los riesgos, regulemos, comprometámonos y concienticemos hacia un uso adecuado de ChatGPT y toda inteligencia artificial generativa. Ten presente que, si cuentas con una actitud positiva, afrontarás los desafíos como si fueran oportunidades.