Aquella mañana había comenzado como cualquier otra. Poco después del amanecer, decenas de padres dejaron a sus hijas en la escuela antes de regresar a sus labores diarias, sin imaginar que para muchos de ellos sería la última vez que las verían con vida.
En Irán, donde la semana laboral comienza el sábado y las clases suelen iniciar temprano, las niñas ya llevaban más de dos horas en las aulas tomando clases cuando comenzaron los bombardeos aéreos llevados a cabo por Estados Unidos e Israel. Ante la incertidumbre, según algunos reportes, la dirección de la escuela Shajareh Tayyebeh, en Minab, decidió suspender las clases y acto seguido, comenzaron a llamar a los padres para que fueran a recoger a sus hijas.
Algunos ya iban de camino cuando ocurrió el primer impacto.
Según reconstrucciones posteriores basadas en testimonios, imágenes satelitales y reportes de prensa, un misil impactó el complejo escolar o sus inmediaciones alrededor de las diez y media de la mañana, lo que provocó que el caos se apoderara del lugar. Profesores intentaban reunir a las niñas, padres corrían desesperados hacia el edificio y muchos buscaban refugio donde podían.
Segundos después llegó otro impacto.
El humo y el polvo nublaban la vista, mientras los gritos llenaban el aire. Aun así, el escenario que se revelaba ante sus ojos era dantesco: libros de texto quemados esparcidos entre pupitres rotos, pequeños zapatos tirados en el suelo y los gritos de madres que llamaban a sus hijas entre los escombros. En medio de ese caos y entre plegarias, algunos adultos intentaban remover los escombros con las manos para rescatar a las niñas atrapadas. Entonces, mientras aún se realizaban esos intentos desesperados de rescate, un tercer misil Tomahawk dio el remate final e impactó nuevamente la escuela ya destrozada, sepultando bajo el concreto a quienes aún permanecían con vida, sobre todo niñas, pero también docentes y algunas madres que habían acudido a buscarlas.
Esa escena formaba parte de una operación militar mucho más amplia, ya que, mientras en Minab se desarrollaba esa tragedia, a más de mil kilómetros de distancia los bombardeos sobre Teherán terminarían con la vida del líder supremo iraní, el ayatolá Alí Jameneí, junto a parte de su familia, mandos políticos, militares y funcionarios del aparato de seguridad.
Pero la historia del sábado 28 de febrero no se limita a los misiles. Al mismo tiempo que las explosiones sacudían distintas ciudades de Irán y cobraban la vida de más de 200 personas —entre ellas al menos 168 niñas de la escuela de Minab—, en Washington se libraba otra batalla, menos visible, pero igual de trascendental, relacionada con el control de la inteligencia artificial.
La empresa estadounidense Anthropic, creadora del modelo Claude, se negó a retirar ciertas salvaguardas que limitaban su uso por parte del Pentágono, particularmente en aplicaciones vinculadas al desarrollo de armas plenamente autónomas capaces de decidir por sí solas cuándo y a quién disparar, y el uso de la IA para vigilar de forma masiva a la población dentro de Estados Unidos.
Conviene aclarar, sin embargo, que Anthropic no se oponía a que su tecnología se utilice en contextos militares o de seguridad nacional. De hecho, distintos reportes señalan que herramientas basadas en Claude han sido empleadas por agencias estadounidenses en tareas de análisis e inteligencia. Por ejemplo, informaciones citadas por The Wall Street Journal y recogidas por Reuters indican que el modelo fue utilizado durante la operación militar realizada en Venezuela, a través de plataformas de análisis operadas por la empresa Palantir.
Asimismo, otros reportes sostienen que este mismo modelo habría sido utilizado en labores de apoyo analítico, como simulaciones de escenarios o evaluación de objetivos, durante los ataques contra Irán. Aun así, aunque Anthropic no se opone a ponerle el traje militar y mandar su IA a la guerra, la empresa insiste en mantener ciertos límites sobre el uso de su tecnología. Para ellos, la IA puede apoyar el análisis de información, sugerir posibles objetivos o evaluar escenarios; pero la decisión final sobre cuándo, cómo y contra quién emplear la fuerza debe seguir estando en manos humanas. Al fin y al cabo, hasta este momento la humanidad ha demostrado una eficiencia notable en el arte de destruirse a sí misma sin ayuda de algoritmos; lo que algunos en Washington parecen preguntarse ahora es cuánto más eficiente podría volverse esa tarea si permitimos que las máquinas tomen algunas decisiones.
Como resultado del desacuerdo, el Departamento de Defensa de Estados Unidos terminó designando a Anthropic como un "riesgo para la cadena de suministro", una clasificación que normalmente se reserva para proveedores cuya tecnología podría comprometer la seguridad de sistemas estratégicos. En la práctica, esta etiqueta limita o incluso impide que una empresa participe en contratos federales sensibles y obliga a contratistas del gobierno a prescindir de sus herramientas. La decisión, poco común tratándose de una empresa estadounidense nacida en Silicon Valley, llevó a Anthropic a presentar una demanda contra la administración de Donald Trump y contra el propio Pentágono, alegando que la medida carece de fundamento y constituye una represalia por haberse negado a eliminar las salvaguardas que su modelo Claude mantiene frente al uso en armas autónomas o sistemas de vigilancia masiva.
En medio de ese vacío, OpenAI, la empresa creadora de ChatGPT, avanzó en acuerdos para ampliar la provisión de sus sistemas al Departamento de Defensa, consolidando su presencia en uno de los mercados tecnológicos más sensibles del planeta. La pregunta inevitable es si, ante esta nueva carrera por los contratos militares de la inteligencia artificial, OpenAI decidió simplemente ocupar el espacio dejado por Anthropic… o si está dispuesta a ir más lejos, permitiendo precisamente aquello a lo que su competidor se negó, respecto al uso de la IA en armas plenamente autónomas, o su aplicación en esquemas de vigilancia masiva sobre la población. De ser así, la frontera que hasta ahora muchos consideraban una línea roja podría empezar a desdibujarse y acercarnos un poco más a ese viejo fantasma tecnológico que Hollywood bautizó como Skynet.
El debate, en cualquier caso, apenas comienza. En Estados Unidos han surgido interrogantes desde distintos sectores. Entre ellas destaca la formulada por Tucker Carlson, una de las voces más influyentes del ecosistema mediático MAGA, quien se preguntó públicamente si el ataque contra la escuela para niñas en Irán —que, según distintas fuentes, segó la vida de al menos 168 alumnas—, fue consecuencia de un error humano catastrófico o si pudo haber intervenido algún sistema de inteligencia artificial en la selección o reiteración del blanco.
Hasta el momento no existe evidencia de que la inteligencia artificial haya sido utilizada de forma directa en la toma de decisiones que condujeron a este ataque. La explicación preliminar más citada apunta, por ahora, al uso de datos de localización desactualizados o errores en la identificación del blanco. No obstante, el episodio encaja en un patrón ya visto en otros escenarios de conflicto, como en Gaza y en Beirut, donde Israel ha justificado ataques contra escuelas, hospitales y zonas residenciales argumentando que grupos armados utilizaban esas instalaciones como escudos humanos o mantenían infraestructura militar en sus inmediaciones o debajo de ellas. En el caso de Minab, lo que sí está documentado es que la escuela se encontraba junto a un complejo vinculado a la Guardia Revolucionaria y que el edificio había formado parte de ese entorno en el pasado, aunque funcionaba desde hacía casi diez años como una institución civil claramente identificable.
Si la hipótesis del error termina imponiéndose, no estaríamos ante nada nuevo, sino ante otra forma de barbarie que con demasiada frecuencia aparece cuando las víctimas civiles, como las niñas de la escuela de Minab, terminan convertidas en daño colateral cada vez que el rugido del león y su furia épica se enfrentan al mal que nos acecha y amenaza. Y entonces vuelve a resonar aquella advertencia: "que la guerra no me sea indiferente", porque "es un monstruo grande y pisa fuerte", y más allá de los nombres heroicos, de las estrategias militares, de los intereses económicos o de las justificaciones que se esgriman, el resultado suele ser el mismo. Seres humanos armados con tecnologías cada vez más poderosas, capaces de destruir ciudades enteras o de delegar decisiones en algoritmos.
Monos con navaja en un parque para niños.
Compartir esta nota