A Nvidia flexionou seus músculos de IA esta semana, revelando uma série de produtos de próxima geração para inaugurar a nova era da inteligência artificial. Desde o que descreveu como um superchip inovador centrado na IA até ferramentas de desenvolvimento mais intuitivas, a Nvidia pretende claramente continuar a ser o motor da revolução da IA.
A apresentação da Nvidia este ano na SIGGRAPH 2023 – uma conferência anual dedicada à tecnologia e investigação de computação gráfica – foi quase inteiramente sobre IA. O CEO da Nvidia, Jensen Huang, disse que a IA generativa representa um ponto de inflexão semelhante à revolução da Internet há décadas. Segundo ele, o mundo está a caminhar para uma nova era em que a maioria das interacções entre humanos e computadores será alimentada pela IA.
“Todas as aplicações, todas as bases de dados, tudo aquilo com que interagimos dentro de um computador, é provável que nos envolvamos primeiro com um modelo de linguagem grande”, disse Huang.
Ao combinar software e hardware especializado, a Nvidia está a posicionar-se como o elo que faltava para realizar todo o potencial da IA.
O Superchip Grace Hopper estreia-se para treino de IA
A estrela do espetáculo foi o novo Grace Hopper Superchip GH200, a primeira GPU com High Bandwidth Memory 3e (HBM3e). Com até 2 TB/s de largura de banda, a HBM3e oferece quase três vezes a largura de banda da geração anterior HBM2e.
A Nvidia define seu chip Grace Hopper como uma “CPU acelerada projetada desde o início para IA em escala gigante e aplicativos de computação de alto desempenho (HPC)”. O chip é o resultado da combinação das arquitecturas Grace (CPUs de elevado desempenho) e Hopper (GPUs de elevado desempenho) da Nvidia, cujo nome evoca o da famosa cientista informática americana.
Segundo Huang, a GH200 pode oferecer até seis vezes o desempenho de treino da GPU A100 da Nvidia para grandes modelos de IA. Espera-se que o GH200 esteja disponível no segundo trimestre de 2024.
“O GH200 é um novo mecanismo para treinamento e inferência”, disse Huang, acrescentando que “os futuros modelos de fronteira serão construídos dessa forma”. Huang disse ainda que este novo superchip “provavelmente até corre o Crysis” – um videojogo de tiro na primeira pessoa com requisitos de hardware notoriamente pesados.
A arquitetura de GPU da Lovelace chega às estações de trabalho
A Nvidia também teve algumas novidades para os utilizadores domésticos. O fabricante de chips revelou as suas mais recentes GPUs para estações de trabalho RTX baseadas na sua arquitetura Ada Lovelace: a RTX 5000, a RTX 4500 e a RTX 4000. Com até 7680 núcleos CUDA, estas GPUs oferecem até 5x o desempenho das placas da geração anterior para desenvolvimento de IA, renderização 3D, edição de vídeo e outros fluxos de trabalho profissionais exigentes.
A emblemática RTX 6000 Ada continua a ser a melhor escolha para profissionais que exigem o máximo desempenho. No entanto, a nova linha expande a arquitetura Ada Lovelace para uma gama mais vasta de utilizadores. Os RTX 4000, 4500 e 5000 estarão disponíveis a partir do terceiro trimestre de 2022 nos principais OEMs.
No entanto, essas novas ofertas não são baratas. O preço do RTX 4000 começa em US $ 1,250 e o RTX 5000 em cerca de US $ 4,000.
Para profissionais e empresas que levam suas iniciativas de IA para o próximo nível, a Nvidia revelou sua nova GPU em escala de data center Nvidia L40. Com até 18,176 núcleos CUDA e 48 GB de vRAM, o L40 oferece desempenho de treinamento de IA até 9.2 vezes maior do que o A100.
A Nvidia diz que os fabricantes globais de servidores planeiam oferecer o L40 nos seus sistemas, permitindo que as empresas treinem modelos gigantescos de IA com eficiência e economia de custos ideais. Em conjunto com o software da Nvidia, o L40 pode fornecer uma solução completa para as organizações que estão a adotar a IA.
Microsserviços nativos da nuvem elevam as comunicações de vídeo
A Nvidia também anunciou um novo conjunto de kits de desenvolvimento de software acelerado por GPU e um serviço nativo da nuvem para edição de vídeo chamado Maxine.
Alimentado por IA, o Maxine oferece recursos como cancelamento de ruído, aumento de resolução e contacto visual simulado para chamadas de vídeo, permitindo que os utilizadores remotos tenham conversas naturais em praticamente qualquer lugar.
A Nvidia afirma que os parceiros de narração visual já integraram o Maxine em fluxos de trabalho como videoconferência e edição de vídeo.
Toolkit simplifica o desenvolvimento de IA generativa
Finalmente, a Nvidia anunciou o próximo lançamento do AI Workbench, uma plataforma unificada que simplifica o desenvolvimento, teste e implementação de modelos de IA generativa.
Ao fornecer uma interface única para gerenciar dados, modelos e recursos em máquinas, o AI Workbench permite colaboração e dimensionamento contínuos de uma estação de trabalho local até a infraestrutura em nuvem.
Com a sua mais recente lista de ofertas que abrangem hardware, software e serviços, a Nvidia afirma que pretende acelerar a adoção empresarial da IA através de uma pilha de tecnologia abrangente construída para lidar com as suas muitas complexidades.