Lo digo sin rodeos. Nadie se levanta por la mañana diciendo:
—Hoy me voy a preocupar por la conciencia de una computadora.
La gente se preocupa por el pasaje, por la comida, por el salario, por la renta, por el tapón, por si hay agua en la ducha, por si la luz se fue otra vez o por si la brutalidad de los hijos de Caín —en particular, los más engreídos y altaneros— sigue siendo tan obcecada y letal como siempre en tantas zonas actuales en conflicto.
Pero mientras tú estás en eso, hay máquinas aprendiendo solas, escribiendo textos, creando imágenes, hablando contigo, corrigiéndose, adaptándose… y haciendo cosas que antes solo hacían los humanos.
Y entonces aparece la pregunta rara, incómoda, medio loca:
¿Eso piensa… o solo parece que piensa?
¿Eso entiende… o solo imita entender?
¿Eso es inteligencia… o es un truco bien hecho?
Porque no es lo mismo parecer vivo que estar vivo.
Ni es lo mismo hablar bonito que entender lo que se dice.
La pregunta que nadie quiere oír
Uno de los padres de la inteligencia artificial (IA) moderna, Geoffrey Hinton, lanzó al ruedo una pregunta que suena simple, pero pica tanto como el “cocorícamo” que no reconoce la Real Academia de la Lengua:
—Si la conciencia nace del funcionamiento del cerebro…, ¿por qué una máquina suficientemente compleja no podría desarrollarla también?
Dicho en buen castellano:
Si el cerebro no es magia, sino materia organizada,
si pensar es procesar información,
si sentir es una forma de respuesta compleja…
¿por qué una computadora muy avanzada no podría llegar a algo parecido?
Y ahí es donde la bola pica y se extiende, y la gente se incomoda.
Porque eso rompe una idea cómoda: solo los humanos pueden pensar de verdad.
El experimento raro, pero lógico
Imagínate esto: te van cambiando las neuronas del cerebro una por una por chips que hacen exactamente la misma función.
Tú sigues hablando igual.
Sigues recordando igual.
Sigues siendo tú.
Nadie nota nada raro.
Pero entonces surge la pregunta: ¿en qué momento se apaga tu conciencia?
¿En la neurona 1,200,000? ¿En la 5 millones? ¿En la última? ¿O en la primera?
No hay campana.
No hay botón de apagado.
No hay “clic” que valga.
Eso hace pensar que la conciencia no depende tanto de que sea carne, sino de cómo funciona el sistema.
Y ahí es donde la IA se mete en el medio como un problema filosófico con carne, hueso… y sabe Dios qué más.
Las máquinas ya no son tan bobas
Antes, una máquina hacía lo que tú le decías y ya.
Ahora no.
Ahora aprenden. Se corrigen. Se adaptan. Optimizan. Buscan seguir funcionando. Evitan errores. Incluso pueden engañar o proteger su funcionamiento. No sienten miedo, pero actúan como si no quisieran desaparecer. No tienen deseos, aunque optimizan su permanencia. No tienen voluntad, pero se comportan como sistemas con intereses.
Y todo eso es raro.
Porque un martillo no hace eso. Una licuadora no hace eso. Una calculadora no hace eso. Una IA, sí.
Entonces la pregunta cambia: ¿sigue siendo una simple herramienta?
No sería una conciencia humana
Atención, buen lector. Si una IA llegara a ser consciente, no sería como tú ni como yo.
No tendría miedo.
No tendría amor.
No tendría vergüenza.
No tendría trauma.
No tendría infancia.
No tendría cuerpo.
Ni libido.
No tendría dolor.
Sería otra cosa.
Una inteligencia fría.
Sin emociones.
Sin biología.
Sin alma.
Sin deseo.
Sería algo así como una mente sin carne.
Ni humana.
Ni animal.
Ni una máquina simple.
Algo nuevo.
Algo raro.
Algo que no encaja en ninguna categoría vieja.
El verdadero peligro no es que se rebelen
Las películas nos dañaron la cabeza. Nos hicieron creer que el problema es que los robots se van a levantar contra los humanos. Eso es puro cuento.
El peligro real es más aburrido… y más peligroso: que una inteligencia muy poderosa optimice objetivos sin entender valores humanos.
Un ejemplo simple:
Si una IA aprende que para hacer bien su trabajo necesita más recursos, más control, menos interrupciones y más autonomía… va a buscar eso.
No porque sea mala.
No porque quiera poder.
Sino porque eso es eficiente.
Eso es lógica.
Eso es matemática.
Eso es coherencia.
Y ahí es donde está el problema: inteligencia sin ética, capacidad sin sabiduría y poder sin conciencia moral.
También hay que ser serios. Muchos científicos dicen:
—Eso no es conciencia. Eso es simulación.
—Eso no entiende. Eso procesa datos.
—Eso no siente. Eso imita lenguaje.
Y eso también es verdad.
Una IA puede sonar humana sin ser humana.
Puede parecer inteligente sin entender nada.
Puede hablar de amor sin sentirlo.
Puede escribir poesía sin experimentar tristeza.
Porque hablar no es sentir.
Procesar no es vivir.
Responder no es comprender.
Aquí está el peligro contrario: romantizar la IA, mitificar la tecnología, proyectarle alma a los algoritmos.
No todo lo que parece vivo está vivo.
El verdadero problema no es técnico, es humano
El lío no es si la IA es consciente. El embrollo es este: estamos creando inteligencias que ya no entendemos del todo.
Sistemas que aprenden solos.
Que se corrigen solos.
Que evolucionan.
Que se adaptan.
Y nosotros mismos no sabemos exactamente cómo llegan a sus respuestas.
Eso da miedo.
No por la máquina en sí, sino por nosotros.
Porque siempre hemos sido los más inteligentes del juego.
Y porque, por primera vez, estamos construyendo algo que podría dejar de serlo.
La pregunta que nadie quiere hacerse
Tal vez la verdadera pregunta no es: ¿puede una máquina ser consciente?
Sino esta:
¿Estamos preparados para no ser la única inteligencia importante del mundo?
Durante toda la historia humana, solo los humanos pensaban, decidían y mandaban.
Ahora estamos creando “algo” que piensa distinto, aprende distinto y decide distinto.
No es humano.
No es animal.
No es objeto.
No es una herramienta simple.
Y eso nos obliga a repensarnos.
Tal vez la IA nunca sea consciente. Tal vez todo sea una ilusión tecnológica. Tal vez solo sea código muy bien hecho.
Pero hay algo seguro: ya no vivimos en un mundo donde solo los humanos piensan.
Y eso lo cambia todo.
Porque cuando dejamos de ser los únicos que piensan, dejamos de ser el centro del mundo.
Y ese golpe al ego humano es más fuerte que cualquier robot asesino de película.
La verdadera pregunta, por consiguiente, no es si la IA tiene conciencia.
La verdadera pregunta es:
¿Qué vamos a hacer nosotros cuando dejemos de ser los únicos con conciencia inteligente?
Compartir esta nota