O CEO da Nvidia, Jensen Huang, disse na segunda-feira que a próxima geração de chips da empresa está em “plena produção” e disse que pode oferecer cinco vezes mais computação de IA do que os chips anteriores da empresa ao oferecer chatbots e outras aplicações de IA.
Num discurso no Consumer Electronics Show, em Las Vegas, o líder da empresa mais valiosa do mundo revelou novos detalhes sobre os seus chips, que chegarão ainda este ano e que os executivos da Nvidia estão nos laboratórios da empresa a serem testados por empresas de inteligência artificial, à medida que a Nvidia enfrenta a concorrência crescente dos seus rivais e dos seus próprios clientes.
A plataforma Vera Rubin, composta por seis chips Nvidia separados, deve ser lançada ainda este ano, com o servidor principal contendo 72 unidades gráficas da empresa e 36 de seus novos processadores centrais.
Huang mostrou como mais de 1.000 chips Rubin poderiam ser reunidos em “cápsulas” e disse que eles poderiam melhorar em 10 vezes a eficiência da geração do que é conhecido como “tokens”, a unidade fundamental dos sistemas de inteligência artificial.
No entanto, para obter os novos resultados de desempenho, Huang disse que os chips Rubin usam um tipo de dados proprietário que a empresa espera que a indústria mais ampla adote.
“Foi assim que conseguimos um salto tão gigantesco no desempenho, apesar de termos apenas 1,6 vezes o número de transistores”, disse Huang.
Embora a Nvidia ainda domine o mercado de modelos de IA de treinamento, ela enfrenta muito mais concorrência – de rivais tradicionais como a Advanced Micro Devices e de clientes como o Google, da Alphabet – na entrega dos frutos desses modelos a centenas de milhões de usuários de chatbots e outras tecnologias.
Grande parte do discurso de Huang se concentrou no desempenho dos novos chips para essa tarefa, incluindo a adição de uma nova camada de tecnologia de armazenamento chamada “armazenamento de memória contextual”, destinada a ajudar os chatbots a fornecer respostas mais rápidas a perguntas e longas conversas.
A Nvidia também anunciou uma nova geração de switches de rede com um novo tipo de conexão chamada óptica empacotada. A tecnologia, que é fundamental para unir milhares de máquinas em uma só, concorre com ofertas da Broadcom e da Cisco Systems.
Em outros anúncios, Huang destacou um novo software que pode ajudar os veículos autônomos a tomar decisões sobre qual caminho seguir e deixar um rastro de papel para os engenheiros usarem mais tarde. A Nvidia exibiu pesquisas sobre o software, chamado Alpamayo, no final do ano passado, e Huang disse na segunda-feira que ele seria divulgado de forma mais ampla, junto com os dados usados para treiná-lo, para que as montadoras possam realizar avaliações.
“Nós não apenas abrimos o código-fonte dos modelos, mas também abrimos o código-fonte dos dados que usamos para treinar esses modelos, porque só então você pode realmente confiar em como os modelos surgiram”, disse Huang em um palco em Las Vegas. No mês passado, a Nvidia adquiriu talentos e tecnologia de chips da startup Groq, incluindo executivos que foram fundamentais para ajudar o Google, da Alphabet, a projetar seus próprios chips de inteligência artificial.
Embora o Google seja um grande cliente da Nvidia, seus próprios chips se tornaram uma das maiores ameaças da Nvidia, à medida que o Google trabalha em estreita colaboração com a Meta Platforms e outras para reduzir a liderança da empresa.
Durante uma sessão de perguntas e respostas com analistas financeiros após seu discurso, Huang disse que o acordo com a Groq “não afetará nosso negócio principal”, mas poderá resultar em novos produtos que expandam sua linha. Ao mesmo tempo, a Nvidia está ansiosa para mostrar que seus produtos mais recentes podem superar os chips mais antigos, como o H200, que Donald Trump permitiu que chegasse à China.
O chip, que foi o antecessor do atual chip “Blackwell” da Nvidia, está em alta demanda na China, o que alarmou os falcões chineses em todo o espectro político americano.