Nvidia presentó este lunes sus últimos microchips destinados a acompañar la revolución de la inteligencia artificial, mientras busca consolidarse como el principal proveedor de estos componentes clave para el mundo de la IA.
"Necesitamos GPU (unidades de procesamiento gráfico, ndlr) más grandes. (…) Me gustaría presentarles una gran, gran GPU", dijo el presidente de la empresa, Jensen Huang, en una conferencia de desarrolladores en California, Estados Unidos.
Los GPU son chips con una capacidad de cálculo muy superior a la de los microprocesadores clásicos, conocidos como CPU.
El gigante tecnológico estadounidense anunció así la salida de su procesador más poderoso hasta la fecha, junto a un programa en una plataforma informática denominada "Blackwell", en homenaje a David Blackwell, primer universitario negro que ingresó en la Academia Nacional de Ciencias.
Las GPU Blackwell se convertirán en "superchips" cuatro veces más rápidos que los de la generación anterior, que sirvieron para entrenar a los modelos de IA existentes, según Nvidia.
El grupo precisó que estos componentes serán 25 veces más eficientes en materia energética.
"La velocidad a la que avanza la computación es una locura", afirmó Huang durante la conferencia.
El evento, bautizado como el "Woodstock de la IA" por el analista Dan Ives, de Wedbush, es uno de los principales del calendario de las nuevas tecnologías, debido al papel único de Nvidia en la revolución de la IA.
Esta posición, en primera línea de esta evolución, llevó a Nvidia a la cima de la bolsa, con una ganancia de 267% en un año y 80% desde inicios de 2024.
El grupo de Santa Clara vale más en bolsa que Amazon.
El 23 de febrero, sobrepasó los 2 billones de dólares de capitalización bursátil, una cota que solo Microsoft, Apple y la petrolera saudita Aramco han superado.
Al contrario que sus rivales Intel, Micron y Texas Instruments, Nvidia, al igual que AMD, no fabrica sus propios semiconductores, sino que los manda a producir a terceros como Taiwan Semiconductor Manufacturing.
Estados Unidos prohíbe a Nvidia enviar sus chips más potentes a empresas chinas.
Según Huang, este nuevo chip replica por siete veces el rendimiento de un H100.
Además de ser un chip, Blackwell también forma parte de una plataforma de seis tecnologías, que juntas permiten el entrenamiento de grandes modelos de lenguaje (LLM, por sus siglas en inglés) en tiempo real para modelos que escalan 10 billones de parámetros y los cuales estarán disponibles a finales del año.
Por otra parte, la empresa también anunció el lanzamiento de microservicios de IA generativa de nivel empresarial, llamado NIM (Nvidia Inference Microservices), que las compañías pueden utilizar para crear y desplegar aplicaciones personalizadas en sus propias plataformas, lo cual les permite mantener el control y seguridad de su propiedad intelectual.
Incluso Huang ejemplificó con algunos casos de uso en la industria sanitaria, pues estos servicios les permitirán a hospitales, laboratorios o empresas farmacéuticas acelerar los flujos de trabajo de descubrimiento de fármacos, imágenes médicas y análisis genómico.
"Las plataformas empresariales establecidas están sobre una mina de oro de datos que pueden transformarse en copilotos de IA generativa", comentó durante la presentación. “Estos microservicios de IA son los bloques de construcción para que las empresas de todas las industrias se conviertan en compañías de IA".