MADRID, 19 Mar. (Portaltic/EP) -
Nvidia ha presentado la serie Nvidia RTX Pro Blackwell, una nueva generación de unidades de procesamiento gráfico (GPU, por sus siglas en inglés) para estaciones de trabajo y servidores diseñadas para cargas complejas impulsadas por IA, computación técnica y gráficos de alto rendimiento.
Estas GPU están diseñadas para impulsar aplicaciones como agentes de IA, simulación, realidad extendida, diseño 3D y efectos visuales de alta gama, así como para la creación de contenido inmersivo eficiente y escalable, tal y como ha explicado la marca en el evento Nvidia GTC, inaugurado este martes en San José (Estados Unidos).
Esta línea está compuesta por GPU de escritorio Nvidia RTX PRO 6000 Blackwell Workstation Edition, Blackwell Max-Q Workstation Edition, PRO 5000 Blackwell, PRO 4500 Blackwell y PRO 4000 Blackwell. Para centros de datos, NVIDIA RTX PRO 6000 Blackwell Server Edition.
También conforman la nueva serie Nvidia RTX Pro Blackwell las GPU para ordenadores portátiles Nvidia RTX PRO 5000 Blackwell, RTX PRO 4000 Blackwell, RTX PRO 3000 Blackwell, RTX PRO 2000 Blackwell, RTX PRO 1000 Blackwell y RTX PRO 500 Blackwell.
Junto con el nuevo 'hardware', el fabricante ha anunciado un conjunto de herramientas, bibliotecas y kits de desarrollo de 'software' basados en IA y diseñados para acelerar el desarrollo de esta tecenología en PC y estaciones de trabajo. Todas ellas se reúnen en las llamadas bibliotecas CUDA-X.
Estas bibliotecas, basadas en CUDA, son una colección de bibliotecas que ofrecen un rendimiento superior en comparación con las alternativas basadas únicamente en CPU. Asimismo, se combinan con los microservicios Nvidia NIM, modelos de IA preconfigurados de alto rendimiento y optimizados para todas las GPU Nvidia, desde PC y estaciones de trabajo con RTX hasta la nube.
Asimismo, permiten a los desarrolladores crear asistentes de aplicaciones, herramientas de productividad y flujos de trabajo de creación de contenido con IA, que se integran con las GPU RTX Pro, lo que hace que la IA sea más accesible y potente. Con ello, Nvidia ha puntualizado que los microservicios NIM integran modelos de lenguaje grandes (LLM), imágenes, voz y generación aumentada por recuperación (RAG).
Otras de las novedades avanzadas en este apartado son Nvidia RTX Kit, un conjunto de tecnologías de renderizado neuronal para desarrolladores de juegos, y ChatRTX, una aplicación de demostración que personaliza un LLM conectado al contenido del usuario, ya sean documentos, notas o imágenes, entre otros datos.
BLACKWELL ULTRA Y PLANES FUTUROS
Nvidia ha anunciado la próxima evolución de la plataforma de IA Nvidia Blackwell Ultra, que prepara el camino para la era del razonamiento de IA y mejora la inferencia de escalamiento en tiempo de prueba y entrenamiento para permitir que las organizaciones de todo el mundo aceleren aplicaciones como el razonamiento de IA.
También, para la IA agéntica, que emplea razonamiento sofisticado y planificación iterativa para resolver de forma autónoma los problemas complejos; así como para la IA física, que permite a las empresas generar vídeos sintéticos y fotorrealistas en tiempo real para el entrenamiento de aplicaciones como robots y vehículos autónomos a escala.
Basado en la arquitectura Blackwell, presentada hace un año, Blackwell Ultra incluye la solución a escala de rack Nvidia GB300 NVL72 y el sistema Nvidia HGX B300 NVL16. Nvidia GB300 NVL72 brinda 1,5 veces más rendimiento de IA que el Nvidia GB200 NVL72, además de multiplicar por 50 las oportunidades de negocio de Blackwell para las fábricas de IA, en comparación con las desarrolladas con Nvidia Hopper.
Por un lado, la NVIDIA GB300 NVL72 conecta 72 GPU Blackwell Ultra y 36 CPU Nvidia Grace, basadas en Arm Neoverse, en un diseño a escala de rack, actuando como una GPU masiva diseñada escalar en tiempo de prueba. Con la Nvidia GB300 NVL72, los modelos de IA pueden acceder a la mayor capacidad de cómputo de la plataforma para explorar diferentes soluciones a los problemas y desglosar solicitudes complejas en varios pasos, lo que resulta en respuestas de mayor calidad, según ha señalado Nvidia.
Se espera que GB300 NVL72 también esté disponible en Nvidia DGX Cloud, una plataforma de IA integral y totalmente gestionada en nubes líderes que optimiza el rendimiento con software, servicios y experiencia en IA para cargas de trabajo en constante evolución. Nvidia DGX SuperPOD, con sistemas DGX GB300, utiliza el diseño de rack GB300 NVL72 para ofrecer a los clientes una fábrica de IA lista para usar.
Nvidia HGX B300 NVL16, por su parte, presenta una inferencia 11 veces más rápida en modelos de lenguaje grandes, siete veces más capacidad de procesamiento y cuatro veces más memoria en comparación con la generación Hopper para brindar un rendimiento innovador para las cargas de trabajo más complejas, como el razonamiento de IA.
La marca también ha dicho que los sistemas Blackwell Ultra se integran con las plataformas Nvidia Spectrum-X Ethernet y Nvidia Quantum-X800 InfiniBand, con un rendimiento de datos de 800 Gb/s disponible para cada GPU del sistema, a través de una SuperNIC Nvidia ConnectX-8. Esto ofrece capacidades de acceso directo a memoria remota de primera clase para que las fábricas de IA y los centros de datos en la nube puedan gestionar modelos de razonamiento de IA sin cuellos de botella.
Las plataformas de red DPU NVIDIA BlueField-3, también incluidas en los sistemas Blackwell Ultra, permiten redes de múltiples inquilinos, elasticidad de cómputo de GPU, acceso acelerado a datos y detección de amenazas de ciberseguridad en tiempo real.
La compañía tecnológica ha comentado finalmente que se espera que los productos basados en Blackwell Ultra estén disponibles a través de los socios a partir de la segunda mitad de 2025. Asimismo, ha avanzado que en la segunda mitad de 2025 lanzará Vera Rubin, el primer producto de la nueva arquitectura de Nvidia.
En este sentido, ha matizado que está preparando Rubin NVL144, equipado con dos GPU y una memoria combinada de 288 GB de HBM4; y Rubin NVL576, con GPU de cuatro retículas y 1 TB de memoria HBM4e. Posteriormente, llegará el turno de las GPU basadas en Feynman, en los que incorporará la tecnología de memoria HBM de última generación.