Hasta hace apenas unos años era difícil imaginar lo que sería ser atendido por un robot o “una inteligencia no humana”. Eso era, más bien, tema de novelas, películas de ficción. Hace algún tiempo leí Yo, Robot, aquella novela escrita por Isaac Asimov[1] y en la cual desarrolla un mundo en que los robots son parte de la cotidianidad humana, viéndose en la necesidad el novelista de escribir lo que entendía eran las leyes de la robótica, un conjunto de normas (o principios éticos) que se aplicarían a todos los robots diseñados para el cumplimiento de trabajos concretos y generalmente de altos riesgos para la vida humana. Estas leyes fueron:
Primera Ley: un robot no hará daño a un ser humano, ni por inacción permitirá que un ser humano sufra daño.
Segunda Ley: Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.
Tercera Ley: Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.
Y como es lógico suponer, la vida es una dinámica permanente como se esperaría sería incluso en la ficción del novelista; ante el hecho de que en su imaginación los robots llegan a asumir responsabilidades muy complejas como las del gobierno de planetas enteros y civilizaciones humanas, creó una cuarta ley, que llamó Ley Cero:
Ley Cero: un robot no puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daños.
Como se puede observar las leyes que regulan el comportamiento de los robots en la ficción, incluso más allá de Asimov, se constituirían hoy en una especie de ética de la inteligencia artificial, en la que la vida humana y su preservación deberían estar por encima de cualquier otra situación o decisión posible.
La imaginación y creatividad humana han sido muy fecundas desde tiempo inmemoriales; siempre han estado al servicio de la búsqueda de nuevas maneras de comprender como incluso de actuar ante la realidad que vivimos. La imaginación y su expresión creativa no parece tener límites. Se puede hablar de una energía o función de nuestro sistema nervioso central que siempre anda en procura de nuevas maneras de prefigurar la realidad. De alguna manera, hemos llegado al mundo de hoy tal y como lo estamos experimentando gracias a la imaginación y la capacidad creativa humanas.
La llamada inteligencia artificial (IA) tema hoy de debates internacionales y no menos preocupación, es producto del desarrollo de las ciencias y las tecnologías computacionales, guiadas por la imaginación y la creatividad. Se habla de ella como una disciplina en que un conjunto de capacidades cognitivas como intelectuales propias de los humanos, se desarrollan y expresan por sistemas informáticos haciendo uso de un conjunto de logaritmos que hacen uso de las grandes bases de datos disponibles. Bases de datos que contienen informaciones de todo tipo, desde publicaciones científicas y artísticas, como también de la expresión de nuestros gustos e intereses expresados por todo cuanto ponemos de manifiesto en la web. De esa manera, nada está exento de ella. Su desarrollo avanza conforme avanzan las aplicaciones tecnológicas en la vida en general. El uso generalizado de la telefonía celular inteligente, los juegos en línea, las visitas y compras en las tiendas virtuales, las aplicaciones de búsqueda en la web, los asistentes virtuales que empleamos en los hogares como en el desplazamiento vehicular y todo ese mundo aplicaciones de videos, textos, música han generado una red de un valor inconmensurable para el desarrollo de la IA.
Por supuesto y recordando aquella película 2001: odisea del espacio dirigida por Stanley Kubrick y que disfrutamos en el 1968, el miedo al control de nuestras vidas por una inteligencia externa a nosotros nos ha ido generando temores reales. Ese temor ha llevado a lo que se conoce como basilisco de Roko, un experimento que estudia los riesgos que conlleva el desarrollo de una inteligencia artificial superior a la humana. La hipótesis es que “en el futuro, una inteligencia artificial con acceso a recursos casi ilimitados desde una perspectiva humana (el basilisco) pudiera castigar de manera retroactiva a todos aquellos que de alguna manera no contribuyeron con su creación”.[2]
Hoy los llamados chatbots tienen a muchos altamente preocupados. Sam Altman, director ejecutivo de OpenAI, creadores del chatGPT dice: “En 10 años, creo que tendremos chatbots que trabajen como expertos en cualquier campo. Así que podrás preguntarle a un médico experto, a un profesor experto, a un abogado experto cualquier cosa que necesites y hacer que esos sistemas te solucionen cosas”.
Ante la irrupción de la IA han surgido nuevos campos de estudio en el área de la ética. Se habla de roboética, concepto empleado por primera vez por Gianmarco Veruggio en el año 2002. Veruggio fue presidente de un Atelier financiado por la Red Europea de Investigación de Robótica. Para más información visite Roboética – Wikipedia, la enciclopedia libre. Ya se habla, incluso, de una ética de las máquinas para analizar las cuestiones que tienen que ver con las aplicaciones de la inteligencia artificial. El mayor temor viene por aquello de que la IA pueda llegar a desarrollarse así misma con independencia del algoritmo que inicialmente la produjo. Algunas personas conocedoras del tema me dicen que esto no es imposible.
La inteligencia artificial llegó para quedarse. Es muy difícil que su desarrollo y aplicación en gran parte de la vida humana pueda ser detenido. Se ha llegado a plantear en ese sentido que la guerra en los territorios ucraniano fue la puesta en escena de nuevos armamentos, sobre todo de drones y aviones no tripulados y guiados por inteligencia artificial para el reconocimiento y acción bélica. El tema sigue siendo entonces el uso del conocimiento más que el conocimiento mismo y sus aplicaciones tecnológicas. Recordemos aquella exclamación que se hizo histórica de Robert Oppenheimer, considerado el padre de la bomba atómica, que ante el uso que se hiciera de la misma con los bombardeos de Hiroshima y Nagasaki se sintió ante un verdadero dilema moral: “me he convertido en la Muerte, el destructor de mundos”.
En el 1998 la UNESCO creó la Comisión Mundial de Ética del Conocimiento Científico y la Tecnología (COMEST) como un órgano consultivo ante el desafío creciente que plantean los adelantos científicos y tecnológicos. Nuestras instituciones de educación superior en conjunto con los organismos consultivos y constituidos para las cuestiones de ética deberían ir contribuyendo con la reflexión y, sobre todo, con la formación ética de los futuros profesionales.
[1] Isaac Asimov o Áyzek Azímov, cuyo nombre original se escribe Исаáк Ю́дович Ози́мов, de origen judío ruso, nacido en el año 1920. Fue profesor de bioquímica en la Universidad de Boston. Autor de obras de ciencia ficción, historia y divulgación científica. Su más famosa obra de ficción es la Serie de la Fundación conocida como Trilogía o Ciclo de Trántor.
[2] Recuperado en Basilisco de Roko – Wikipedia, la enciclopedia libre