
Ilustração fotográfica de Sheldon Cooper/SOPA Images/LightRocket via Getty Images
Acessibilidade
A Nvidia (NASDAQ: NVDA) viveu um ano impressionante em 2025, com as ações acumulando alta superior a 35%, impulsionadas pela demanda por suas GPUs líderes de mercado.
A expectativa é que as receitas cresçam mais de 63% no atual exercício fiscal, que se encerra no fim de janeiro. Ainda assim, 2026 tende a ser um ano mais complexo e decisivo para a companhia. Por quê?
De um lado, a Nvidia vem reforçando sua vantagem tecnológica com novas arquiteturas e ciclos de lançamento de produtos cada vez mais acelerados. De outro, a economia da inteligência artificial começa a ganhar peso. Isso pode gerar pressão crescente por parte de clientes, investidores e concorrentes.
O entusiasmo com a seleção de ações diminui rapidamente quando a volatilidade aparece. Consultores financeiros mantêm vantagem ao combinar análise com ação, direcionando o capital dos clientes para portfólios diversificados, capazes de resistir aos diferentes ciclos de mercado.
Novos produtos: avanço do Blackwell Ultra e chegada do Rubin
Atualmente, a Nvidia segue um cronograma anual de lançamentos. A cada dois anos, apresenta uma arquitetura nova — como Hopper em 2022, Blackwell em 2024 e a futura Rubin em 2026 — enquanto, nos anos intermediários, lança versões “Ultra”, que ampliam significativamente as capacidades de memória e rede.
Após o lançamento no fim de 2025, os servidores Blackwell Ultra (B300), incluindo o GB300, devem dobrar o volume de embarques em 2026.
Esses chips contam com 288 GB de memória HBM3e e foram projetados para lidar com as intensas demandas de raciocínio de modelos de próxima geração, como o GPT-5. O Blackwell Ultra oferece cerca de 1,5 vez mais desempenho em IA e 50% mais capacidade de memória do que o B200 original.
Mais adiante em 2026, espera-se que a Nvidia apresente a arquitetura Rubin (R100). O Rubin marca a transição do processo de 4 nanômetros utilizado no Blackwell para um avançado nó de 3 nanômetros, além de introduzir a HBM4, o próximo padrão de memória de alta largura de banda, essencial para modelos com trilhões de parâmetros.
O Rubin também será integrado ao novo processador Vera CPU, formando um “Superchip” de próxima geração que, segundo a Nvidia, pode entregar até 3,3 vezes o desempenho do Blackwell Ultra. Em separado, veja como obter rendimento de 10% com a Nvidia.
Reabertura do mercado chinês, com restrições
Outro possível catalisador para 2026 é a reabertura parcial do mercado chinês. Após mudanças na política dos Estados Unidos no fim de 2025, a Nvidia planeja iniciar o envio de seus chips H200 para a China a partir de fevereiro de 2026.
As vendas estão sujeitas a uma taxa de 25% paga ao governo norte-americano. Esse movimento pode permitir que a empresa recupere parte da receita perdida.
No entanto, o potencial de crescimento vem acompanhado de limitações. Reguladores chineses têm adotado uma postura cautelosa, desencorajando o uso de tecnologia da Nvidia para reduzir a dependência de inovações dos Estados Unidos, à medida que a China busca fortalecer seu ecossistema doméstico de chips de IA.
Compradores do H200 provavelmente enfrentarão um processo de aprovação que exigirá a justificativa de por que fornecedores locais não conseguem atender às suas necessidades.
Além disso, grandes clientes chineses já encontraram formas indiretas de acessar o hardware da Nvidia, o que indica que o crescimento adicional de receitas decorrente de uma adoção mais ampla pode ser restrito.
A economia da IA começa a pesar
Além da oferta de produtos e das questões geográficas, ocorre uma mudança estrutural. Investidores dos maiores clientes da Nvidia podem passar a exigir retornos concretos e mensuráveis sobre os investimentos em IA, e essa pressão já influencia decisões de infraestrutura.
À medida que a inteligência artificial ainda enfrenta dificuldades para demonstrar lucratividade em larga escala, é improvável que os hyperscalers aceitem indefinidamente margens brutas de 70% a 80% da Nvidia sobre GPUs. Isso se torna ainda mais relevante considerando que esses chips representam a principal linha de investimento em capital para IA.
Essa sensibilidade a custos é particularmente relevante na inferência — etapa em que modelos treinados são usados para responder perguntas, gerar resultados e viabilizar aplicações no mundo real.
Diferentemente do treinamento, que é episódico e intensivo em recursos, a inferência opera de forma contínua e em grande escala, afetando diretamente as despesas operacionais.
O treinamento favoreceu as GPUs rápidas e flexíveis da Nvidia, mas a inferência prioriza vazão, latência e custo por consulta, onde a economia por unidade se torna determinante. Mesmo que a inferência ainda dependa de GPUs à medida que os modelos crescem e a flexibilidade continue sendo importante, a tendência é que a configuração ideal de hardware evolua conforme a inferência se consolida como a principal carga de trabalho da IA.
A concorrência segue a lógica econômica
Com a economia da inferência favorecendo cada vez mais a especialização, a concorrência se intensifica.
Os maiores clientes da Nvidia, como Google e Amazon (NASDAQ: AMZN), estão desenvolvendo silício próprio, otimizado para suas necessidades específicas de inferência, enquanto alternativas de código aberto ao ecossistema CUDA, vindas de concorrentes como a AMD, continuam avançando.
A Broadcom (NASDAQ: AVGO) surge como uma alternativa relevante ao colaborar com hyperscalers no desenvolvimento de ASICs de IA personalizados. A AMD deve lançar o Instinct MI400 em 2026, com HBM4, mirando o segmento de maior relação custo-benefício do mercado.

