Conteúdo editorial apoiado por

Próxima geração de chips da Nvidia já está em plena produção, diz CEO

Líder da empresa mais valiosa do mundo revelou novos detalhes sobre os futuros chips

Reuters

Jensen Huang, CEO da Nvidia (Foto: Yoshikazu Tsuno/Gamma-Rapho/Getty Images/The New York Times Licensing Group)
Jensen Huang, CEO da Nvidia (Foto: Yoshikazu Tsuno/Gamma-Rapho/Getty Images/The New York Times Licensing Group)

Publicidade

LAS VEGAS, Estados Unidos, 5 ‍Jan (Reuters) – O presidente-executivo da Nvidia, Jensen Huang, disse nesta segunda-feira ⁠que a próxima geração de chips da empresa está em ‘plena produção’, afirmando ‍que eles podem oferecer cinco vezes mais capacidade de computação de funções de inteligência artificial do que os processadores anteriores da empresa.

Em um discurso na Consumer ‌Electronics Show em Las Vegas, o líder da empresa mais valiosa do mundo revelou novos detalhes sobre os futuros chips, que chegarão no final deste ano e que os executivos da Nvidia disseram à Reuters que já estão nos laboratórios da empresa sendo testados por empresas de IA.

A plataforma Vera Rubin, composta por seis chips Nvidia ‌separados, deve ser lançada ainda este ano, com o dispositivo principal contendo 72 das ‌principais unidades gráficas (GPUs) da empresa e 36 de seus novos processadores centrais (CPUs). Huang mostrou como eles podem ser agrupados em ‘pods’ com mais de 1.000 chips Rubin.

Para obter os novos resultados de desempenho, no entanto, Huang afirmou que os chips Rubin utilizam um tipo proprietário de dados que a empresa espera ‌que o setor em geral adote.

‘Foi assim que conseguimos oferecer um aumento tão gigantesco no desempenho, embora tenhamos apenas 1,6 vez o número de transistores’, ​disse Huang.

Embora a Nvidia ainda domine o mercado de treinamento de modelos de IA, ela enfrenta muito mais concorrência – de rivais tradicionais, como a AMD, bem como de clientes como o Google – na entrega dos frutos desses modelos a centenas de milhões de usuários de chatbots e outras tecnologias de IA.

Continua depois da publicidade

Grande parte do discurso de Huang se concentrou em como os novos chips funcionarão bem para essa tarefa, incluindo a adição de uma nova camada de tecnologia de armazenagem chamada ‘armazenamento de memória de contexto’, com o objetivo de ajudar os chatbots a fornecerem respostas mais ​rápidas a perguntas e conversas ⁠longas quando usados por ⁠milhões de usuários ao mesmo tempo.

A Nvidia também apresentou uma nova geração de switches de rede com ‌um novo tipo de conexão chamada ‘co-packaged optics’. A tecnologia, que é fundamental para conectar milhares de máquinas em uma só, compete com as ofertas da Broadcom e da Cisco Systems.

Em outros anúncios, Huang destacou um novo modelo ‍de IA automotiva que pode ajudar carros autônomos a tomarem decisões sobre o caminho a seguir, deixando um registro documentado para que engenheiros ​possam usar depois.

Continua depois da publicidade

A Nvidia apresentou ‌pesquisas sobre o modelo, chamado Alpamayo, no final do ano passado, e Huang disse nesta segunda-feira que ele ‍será lançado mais amplamente, juntamente com os dados usados para treiná-lo, para que as montadoras de veículos possam fazer avaliações.

‘Não apenas abrimos o código-fonte dos modelos, mas também abrimos o código-fonte dos dados que usamos para treinar esses modelos, porque somente dessa forma você pode realmente confiar em como os modelos foram criados’, disse Huang em Las Vegas.