El filósofo Noam Chomsky, el profesor de lingüística Ian Roberts y el experto en inteligencia artificial (IA) Jeffrey Watumull mostraron este miércoles su optimismo sobre los nuevos avances de los chats de inteligencia artificial (IA), pero, sobre todo, advirtieron de sus peligros y su amoralidad.
En una columna conjunta de opinión publicada este miércoles en el diario The New York Times, los tres intelectuales alaban los nuevos programas ChatGPT (OpenAI), Bard (Google) y Bing (Microsoft) por su capacidad para resolver problemas, pero también de su "preocupación" por estos sistemas que caracterizan por su "amoralidad, falsa ciencia e incompetencia lingüística".
"Tememos que la variedad más popular y más de moda de la inteligencia artificial -el aprendizaje de las máquinas- degrade nuestra ciencia y envilezca nuestra ética al incorporar a nuestra tecnología una concepción fundamentalmente errónea del lenguaje y del conocimiento", escribieron.
Aseguran que aunque estos programas han sido aclamados como "los primeros destellos en el horizonte" de una inteligencia artificial en la que las mentes de las máquinas superen a los cerebros humanos en cantidad y calidad, tanto intelectual, como artística y creativa, todavía no se ha llegado a ese momento.
Según Chomsky, Roberts y Watumull, los usos de programas como ChatGPT pueden ser útiles en algunos campos "limitados" como la programación computacional o "sugiriendo rimas para versos ligeros", pero sus profundas diferencias con los humanos en el razonamiento y en el uso del lenguaje suponen "limitaciones significativas sobre lo que pueden hacer esos programas".
Para estos científicos "estos programas están estancados en una fase prehumana o no humana de la evolución cognitiva".
"Su defecto más profundo es la ausencia de la capacidad más crítica que posee cualquier inteligencia: decir no solo lo que ocurre, lo que ocurrió y lo que ocurrirá -eso es describir y predecir-, sino también lo que no ocurre y lo que podría y no podría ocurrir", aseguran antes de subrayar que estos son los ingredientes de una explicación, "la señal de una verdadera inteligencia".
Argumentan que, a diferencia de las máquinas "el pensamiento de estilo humano se basa en posibles explicaciones y corrección de errores, un proceso que limita gradualmente qué posibilidades se pueden considerar racionalmente".
En este sentido, citan como ejemplo una frase de Sherlok Holmes al Dr. Watson: "Cuando hayas eliminado lo imposible, lo que quede, por improbable que sea, debe ser la verdad".
"Pero ChatGPT y los programas similares que, por diseño, son ilimitados en lo que pueden "aprender" (es decir, memorizar); son incapaces de distinguir lo posible de lo imposible", afirman. Por esa razón, aseveran, las predicciones de los sistemas de aprendizaje automático siempre serán superficiales y dudosas.
Por último, sostienen que la inteligencia verdadera es capaz de un pensamiento moral, mientras que los robots conversacionales han luchado y siguen luchando para conseguir el equilibrio entre crear contenido y alejarse de lo moralmente objetable.
Como ejemplo, citaron el precursor de ChatGPT lanzado por Microsoft en 2016 (Tay) que "inundó Internet de contenido racista y misógino".
Así, afirman que los creadores del ChatGPT, ante la incapacidad de que el programa razone desde unos principios morales, lo han restringido severamente para que no participe en discusiones novedosas o controvertidas.
"Generan en exceso (produciendo tanto verdades como falsedades, respaldando decisiones éticas y no éticas por igual) o generan poco (exhibiendo falta de compromiso con cualquier decisión e indiferencia a las consecuencias)", concluyen.