Nvidia ha sacado músculo esta semana con la presentación de una serie de productos de nueva generación que marcarán el comienzo de la nueva era de la inteligencia artificial. Desde lo que describió como un innovador superchip centrado en la IA hasta herramientas de desarrollo más intuitivas, Nvidia tiene la clara intención de seguir siendo el motor que impulse la revolución de la IA.
La presentación de Nvidia de este año en SIGGRAPH 2023 -una conferencia anual dedicada a la tecnología y la investigación de gráficos por ordenador- versó casi por completo sobre la IA. El consejero delegado de Nvidia, Jensen Huang, afirmó que la IA generativa representa un punto de inflexión similar a la revolución de Internet de hace décadas. Afirmó que el mundo avanza hacia una nueva era en la que la mayoría de las interacciones entre humanos y ordenadores estarán impulsadas por la IA.
«Cada aplicación, cada base de datos, cualquier cosa con la que se interactúe dentro de un ordenador, probablemente se hará primero con un modelo de gran lenguaje», dijo Huang.
Al combinar software y hardware especializado, Nvidia se está posicionando como el eslabón perdido que hace realidad todo el potencial de la IA.
El superchip Grace Hopper debuta para el entrenamiento de IA
La estrella de la feria fue el nuevo Grace Hopper Superchip GH200, la primera GPU con memoria de alto ancho de banda 3e (HBM3e). Con hasta 2 TB/s de ancho de banda, HBM3e proporciona casi el triple de ancho de banda que la anterior generación HBM2e.
Nvidia define su chip Grace Hopper como una «CPU acelerada diseñada desde cero para aplicaciones de IA y computación de alto rendimiento (HPC) a escala gigante». El chip es el resultado de combinar las arquitecturas Grace (CPU de alto rendimiento) y Hopper (GPU de alto rendimiento) de Nvidia, y su nombre evoca el de la famosa científica informática estadounidense.
Según Huang, la GH200 puede proporcionar hasta seis veces más rendimiento de entrenamiento que la GPU A100, el buque insignia de Nvidia, para modelos de IA de gran tamaño. Se espera que la GH200 esté disponible en el segundo trimestre de 2024.
«GH200 es un nuevo motor de entrenamiento e inferencia», dijo Huang, y añadió que «los futuros modelos de frontera se construirán así». Dijo que este nuevo superchip «probablemente incluso ejecute Crysis», un videojuego de disparos en primera persona con requisitos de hardware notoriamente pesados.
La arquitectura de GPU de Ada Lovelace llega a las estaciones de trabajo
Nvidia también tiene novedades para los usuarios domésticos. El fabricante de chips ha presentado sus nuevas GPU RTX para estaciones de trabajo basadas en su arquitectura Ada Lovelace: las RTX 5000, RTX 4500 y RTX 4000. Con hasta 7680 núcleos CUDA, estas GPU ofrecen hasta 5 veces más rendimiento que las placas de la generación anterior para desarrollo de IA, renderizado 3D, edición de vídeo y otros flujos de trabajo profesionales exigentes.
La emblemática RTX 6000 Ada sigue siendo la mejor opción para los profesionales que necesitan el máximo rendimiento. Sin embargo, la nueva gama amplía la arquitectura Ada Lovelace a un mayor número de usuarios. Las RTX 4000, 4500 y 5000 estarán disponibles a partir del tercer trimestre de 2022 en los principales fabricantes de equipos originales.
Sin embargo, estas nuevas ofertas no son baratas. El precio de la RTX 4000 comienza en 1.250 dólares y el de la RTX 5000 en unos 4.000 dólares.
Para los profesionales y las empresas que llevan sus iniciativas de IA al siguiente nivel, Nvidia presentó su nueva GPU Nvidia L40 a escala de centro de datos. Con hasta 18.176 núcleos CUDA y 48 GB de vRAM, la L40 proporciona un rendimiento de entrenamiento de IA hasta 9,2 veces superior al de la A100.
Nvidia afirma que los fabricantes de servidores de todo el mundo tienen previsto ofrecer la L40 en sus sistemas, lo que permitirá a las empresas entrenar modelos de IA gigantescos con una eficiencia y un ahorro de costes óptimos. Combinado con el software de Nvidia, el L40 podría proporcionar una solución completa para las organizaciones que adoptan la IA.
Los microservicios nativos en la nube elevan las comunicaciones de vídeo
Continuando con su impulso a las aplicaciones de vídeo, Nvidia también ha anunciado un nuevo paquete de kits de desarrollo de software acelerado por GPU y un servicio nativo en la nube para la edición de vídeo denominado Maxine.
Impulsado por la IA, Maxine ofrece funciones como la cancelación de ruido, el escalado de superresolución y el contacto visual simulado para videollamadas, lo que permite a los usuarios remotos mantener conversaciones naturales desde casi cualquier lugar.
Nvidia afirma que sus socios ya han integrado Maxine en flujos de trabajo como videoconferencias y edición de vídeo.
El kit de herramientas simplifica el desarrollo de la IA generativa
Por último, Nvidia ha anunciado el próximo lanzamiento de AI Workbench, una plataforma unificada que agiliza el desarrollo, las pruebas y la implantación de modelos de IA generativa.
Al proporcionar una única interfaz para gestionar datos, modelos y recursos en todas las máquinas, AI Workbench permite una colaboración y escalado sin fisuras desde una estación de trabajo local hasta una infraestructura en la nube.
Con sus últimas ofertas de hardware, software y servicios, Nvidia pretende acelerar la adopción de la IA por parte de las empresas a través de una completa pila tecnológica diseñada para abordar sus múltiples complejidades.