• Blackwell: NVIDIA busca dominar la IA

    Lectura 3 minutos

    ยท

Suscrรญbete al Newsletter de SERBice

Obtรฉn acceso exclusivo a las tendencias tecnolรณgicas mรกs recientes.

ยกรšnete a nuestra comunidad y mantente siempre a la vanguardia!


OPINIร“N

La historia de la computaciรณn moderna estรก marcada por momentos en los que una arquitectura redefine los lรญmites de lo posible. A un aรฑo de su anuncio, Blackwell, la arquitectura de NVIDIA presentada en 2024, es uno de esos puntos de inflexiรณn. Diseรฑada para suceder a Hopper, promete una revoluciรณn en el cรกlculo acelerado, sobre todo en aplicaciones de inteligencia artificial generativa. Y no es una promesa menor: segรบn datos oficiales, Blackwell podrรญa ser entre 2 y 4 veces mรกs eficiente que su predecesora, todo mientras reduce el consumo energรฉtico.

Una arquitectura construida para la nueva IA

El chip insignia de esta familia es el GB200, un coloso que combina dos die GPU y un die de CPU en un solo paquete, unidos por la tecnologรญa NVLink-C2C (chip-to-chip). La idea detrรกs de este diseรฑo es clara: eliminar los cuellos de botella que limitaban el ancho de banda y la eficiencia cuando se conectaban varias GPUs.

Con Blackwell, NVIDIA introduce un nuevo mรณdulo: GB200 Grace Blackwell Superchip, que une una CPU Grace (basada en ARM) con la potencia de dos GPUs Blackwell. Es el corazรณn del sistema DGX GB200, pensado para grandes centros de datos, modelado de lenguaje a gran escala, simulaciones cientรญficas y entrenamientos multimodales.

Rendimiento que rompe escalas

NVIDIA afirma que un sistema DGX GB200, que integra 72 chips Blackwell, puede ejecutar modelos con hasta 27 billones de parรกmetros. En comparaciรณn, GPT-4 se estima en poco mรกs de 1 billรณn. Esa capacidad no sรณlo acelera la IA generativa, sino tambiรฉn la capacidad de inferencia en tiempo real, algo clave para aplicaciones en salud, robรณtica, visiรณn por computadora o ciberseguridad.

El nuevo motor de transformadores incorporado, junto con un sistema mejorado de gestiรณn de memoria y cรกlculo mixto, permite optimizar tareas con gran carga de tensores. Se estima que el rendimiento en inferencia de modelos como LLaMA 2 o GPT-J se multiplica por 4, con la mitad del consumo que en Hopper.

Ventajas tรฉcnicas de Blackwell:

  • Proceso de fabricaciรณn en 4nm de TSMC, con interposers y memoria HBM3E, que permite hasta 192 GB por mรณdulo.
  • NVLink 5.0, con un ancho de banda de hasta 1,8 TB/s entre GPUs.
  • Soporte nativo para FP4, lo que mejora la eficiencia energรฉtica sin sacrificar precisiรณn en redes neuronales.
  • Arquitectura modular escalable, ideal para sistemas como NVIDIA DGX, HGX o plataformas de supercomputaciรณn.

Una jugada geopolรญtica y empresarial

NVIDIA no juega sola. El lanzamiento de Blackwell ocurre en un contexto donde EE.UU. impone restricciones a la exportaciรณn de chips de alto rendimiento a China, y donde empresas como AMD (con MI300X) e Intel (con Gaudi 3) tambiรฉn buscan su parte del pastel.

Sin embargo, NVIDIA sigue marcando el ritmo. Empresas como Amazon, Google, Meta y Microsoft ya anunciaron que integrarรกn sistemas basados en Blackwell en sus nubes. Y eso, en el juego de la IA generativa, equivale a dominar el escenario.

Aunque estรก pensada para IA, Blackwell tambiรฉn encuentra aplicaciรณn en simulaciones de clima, fรญsica cuรกntica, secuenciaciรณn genรฉtica y otros รกmbitos del HPC (High Performance Computing). Su versatilidad la convierte en una arquitectura fundacional para la prรณxima dรฉcada.

Con precios que superan ampliamente los USD 30.000 por unidad (y pueden alcanzar cifras mucho mayores en configuraciones DGX completas), Blackwell no estรก pensada para usuarios domรฉsticos. Pero lo que ocurra en sus centros de datos modelarรก el software, la ciencia y la economรญa digital en los prรณximos aรฑos.

NVIDIA no sรณlo lanzรณ una nueva arquitectura. Lanzรณ una declaraciรณn de intenciones: si la IA es el nuevo petrรณleo, Blackwell es su infraestructura. Un ejemplo destacado es la introducciรณn de la plataforma NVIDIA Blackwell, que ha establecido nuevos estรกndares en rendimiento y eficiencia energรฉtica para la inferencia de IA. En las pruebas mรกs recientes de MLPerf Inference V5.0, la plataforma Blackwell demostrรณ mejoras sustanciales en el rendimiento, superando a generaciones anteriores y a productos de la competencia.

Ademรกs, empresas lรญderes en tecnologรญa han adoptado la plataforma Blackwell Ultra de NVIDIA. Se espera que productos basados en Blackwell Ultra estรฉn disponibles a partir de la segunda mitad de 2025, con socios como Cisco, Dell Technologies y Hewlett Packard Enterprise planificando ofrecer servidores basados en esta tecnologรญa.

Estos desarrollos en hardware estรกn facilitando la implementaciรณn y el rendimiento de modelos fundacionales mรกs complejos y eficientes, acelerando su adopciรณn en diversas industrias y aplicaciones