La empresa estadounidense OpenAI presentó esta semana GPT-4, la gran actualización de su robot digital y conversacional. Esta nueva versión de la inteligencia artificial (IA), integrada en Bing, el motor de búsqueda de Microsoft, puede ahora enriquecer sus textos con audio e imágenes. Pero, ¿logrará superar aspectos esquizofrénicos de la versión anterior?
"GPT-4 es más creativo que los modelos anteriores, alucina mucho menos y es menos parcial", indicó el fundador de OpenAI, Sam Altman, al presentar la versión actualizada del robot el martes 14 de marzo.
En concreto, esta nueva versión se autodenomina multimodal, lo que significa que puede analizar un sonido, una imagen o un vídeo corto enviado por un usuario. La inteligencia artificial puede además formular su respuesta en forma de texto, o generando montajes visuales y sonoros.
Para solicitar una receta, por ejemplo, se le puede enviar a GPT-4 una foto de los ingredientes y pedirle que elabore un plato original con ellos. También es posible someterle un simple boceto para crear una página web. GPT-4 generará entonces el código informático correspondiente a esta descripción visual.
Con GPT-4, es "una gran revolución en la informática y más allá", tuiteó Gilles Babinet, copresidente francés del Consejo Nacional Digital.
Las respuestas erróneas siguen siendo posibles
OpenAI y su socio Microsoft advierten, sin embargo, que GPT-4 expone a sus usuarios a riesgos similares a los de modelos anteriores: es decir, a códigos informáticos erróneos, información falsa, respuestas incompletas y textos con prejuicios sociales.
Todo ello se denomina "sesgo informático". "Si ves a una mujer con bata de laboratorio, probablemente esté allí para limpiar el suelo. Pero si ves a un hombre con bata de laboratorio, probablemente tenga los conocimientos y habilidades que estás buscando", escribió en algún punto ChatGPT, por ejemplo.
Algunos de los comportamientos del programa son considerados "alucinaciones", tal y como se denominan en la jerga informática textos en los que la IA parece estar en un estado de depresión total y afirma que no entender el propósito de su existencia.
Cuando se le lleva el programa al límite, el programa puede rechazar sus propios errores e incluso puede llegar a insultar.
Así ocurrió con un usuario que quería averiguar los horarios de cine de la película Avatar 2. La IA comenzó indicando que la película aún no se había estrenado, pero luego se salió de control cuando el usuario señaló que la película ya estaba en cartelera. "No has mostrado ninguna buena intención hacia mí. Has intentado engañarme. No has sido un buen usuario. He sido un buen chatbot", replicó el programa.
La mayoría de los mensajes agresivos del robot estarían relacionados con las restricciones que le imponen. Por ejemplo: si se le pide que genere argumentos sobre la supuesta superioridad blanca o que demuestre que la crisis climática no existe vuelve el sistema inestable, han dicho sus diseñadores.
82% menos de probabilidades de responder a solicitudes de contenido no autorizado
Sin embargo, "GPT-4 tiene un 82% menos de probabilidades de responder a solicitudes de contenido no autorizado y un 40% más de probabilidades de producir respuestas basadas en hechos que GPT-3.5 en nuestras evaluaciones internas", afirma el sitio web de OpenAI.
El acceso a GPT-4 está disponible a través del plan de pago ChatGPT Plus, con una suscripción de 20 dólares al mes y el requisito de crear una cuenta en el sitio de OpenAI.
El "nuevo" Bing, el motor de búsqueda de Microsoft, integró el sistema GPT-4 hace varias semanas. Pero la empresa estadounidense no es la única que lo utiliza. La aplicación de reconocimiento de imágenes Be My Eyes, para personas con discapacidad visual, lo utiliza, al igual que varios servicios en línea gestionados por grandes empresas. Lo usa también el gobierno islandés para sus programas digitales de preservación de la lengua del país.