Pular para o conteúdo

Nvidia deve revelar detalhes do mais recente chip de IA em conferência — TradingView News

Pontos principais:

  • O chip Rubin AI da Nvidia incluirá GPU, CPU e chips de rede
  • Nvidia enfrenta atraso com o atual chip Blackwell devido a falha de design
  • Startups de IA afirmam que chatbots competitivos precisam de menos chips Nvidia

O presidente-executivo da Nvidia, Jensen Huang, deve revelar novos detalhes sobre o mais novo chip de inteligência artificial da empresa em sua conferência anual de desenvolvedores de software na terça-feira.

As ações da Nvidia nvidiaNVDA mais que quadruplicaram de valor nos últimos três anos, à medida que a empresa impulsionou o surgimento de sistemas avançados de IA, como ChatGPT, Claude e muitos outros.

Grande parte desse sucesso decorreu da década que a empresa sediada em Santa Clara, Califórnia, passou criando ferramentas de software para atrair pesquisadores e desenvolvedores de IA – mas foram os chips de data center da Nvidia, vendidos por dezenas de milhares de dólares cada, que responderam pela maior parte de suas vendas de US$ 130,5 bilhões no ano passado.

Huang deu a entender no ano passado que a nova oferta principal (link) será chamado Rubin e consistirá de uma família de chips – incluindo uma unidade de processamento gráfico, uma unidade de processamento central e chips de rede – todos projetados para trabalhar em grandes data centers que treinam sistemas de IA. Analistas esperam que os chips entrem em produção este ano e sejam lançados em grandes volumes a partir do ano que vem.

A Nvidia está tentando estabelecer um novo padrão de introdução de um chip principal a cada ano, mas até agora encontrou obstáculos internos e externos.

O atual chip carro-chefe da empresa, chamado Blackwell, está chegando ao mercado mais lentamente do que o esperado após uma falha de projeto ter causado problemas de fabricação (link). A indústria de IA em geral enfrentou no ano passado atrasos nos quais os métodos anteriores de alimentar quantidades cada vez maiores de dados em centros de dados cada vez maiores, cheios de chips Nvidia, começaram a mostrar retornos decrescentes. (link).

As ações da Nvidia caíram este ano quando a startup chinesa DeepSeek alegou que poderia produzir um chatbot de IA competitivo com muito menos poder de computação – e, portanto, menos chips Nvidia – do que as gerações anteriores do modelo. Huang rebateu que os modelos de IA mais novos (link) que gastam mais tempo pensando em suas respostas tornarão os chips da Nvidia ainda mais importantes, porque eles são os mais rápidos na geração de “tokens”, a unidade fundamental dos programas de IA.

“Quando o ChatGPT foi lançado, a taxa de geração de tokens só precisava ser tão rápida quanto você consegue ler”, disse Huang à Reuters no mês passado. “No entanto, a taxa de geração de tokens agora é a rapidez com que a IA consegue ler a si mesma, porque ela está pensando consigo mesma. E a IA consegue pensar consigo mesma muito mais rápido do que você e eu conseguimos ler e porque ela precisa gerar tantas possibilidades futuras antes de apresentar a resposta certa para você.”

Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *