“El afán del día no entra en conflicto con dedicar algunos minutos para mejor comprender dónde estamos y qué somos”
La electrónica en si misma en cuanto a fundamento de la inteligencia artificial (IA) tiene desafíos, como se ha considerado, asociados a la cada vez mayor exigencia de las operaciones, la eficiencia energética, así como a la latencia en cuanto a la capacidad de las mejores respuestas en tales escenarios; pero en lo relativo a los riesgos la verdad es que a la electrónica directamente no le corresponden.
Tampoco hasta para extremos como los de la ciencia y la tecnología nucleares no necesariamente implican riesgos si se controlan y gestionan apropiadamente las potenciales fallas técnicas; pero en ambos casos sí que hay riesgos cuando se desvían su uso hacia propósitos al margen del auténtico bienestar humano
Lo dicho corresponde a riesgos generados por el uso o destino de carácter humano de la IA; pero se ha hablado de la llamada singularidad tecnológica, un potencial escenario futuro en el que el crecimiento de la IA se vuelva incontrolable superando la capacidad intelectual humana y provocando cambios impredecibles.
Recientemente se ha comentado lo que podría ser una mera señal al menos de pérdida relativa de control. Se trata de Moltbook creado por el experto estadounidense en IA Matt Schlicht. Originalmente se había concebido como una red social tipo Facebook o Reddit, pero con la peculiaridad que está concebida principalmente no para humanos sino solo para bots y cuyos primeros resultados de lo que podrían hacer los “autónomos” bots ha generado preocupación entre expertos y ejecutivos de grandes empresas del área en cuanto a seguridad y pérdida de control; pero como preocupación hay otros antecedentes a ser considerados.
ChatGPT se lanzó el 30 de noviembre de 2023 y particularmente el 29 marzo del 2024, es decir tan próximo como 4 meses después una impresionante cantidad de 1000 expertos en IA y ejecutivos de empresas hicieron pública en una carta su preocupación sobre el destino y uso que pudiese tener la IA llegando incluso a pedir entonces una pausa de 6 meses.
Podría considerarse que algunas medidas se han tomado a partir de entonces, pero lo que ha sucedido con Moltbook, aunque aún no para alarmarse es una nueva señal advertencia.
Los desafíos sí corresponden a la electrónica, para seguir avanzando: pero los riesgos desde la perspectiva que se ha enfocado la trascienden y sin obstaculizar los avances, lideres sociales y expertos han de estar atentos a propósitos al margen del auténtico bienestar humano.
Compartir esta nota