(A Artificial Intelligencer é publicada todas as quartas-feiras. Acha que seu amigo ou colega deveria nos conhecer? Encaminhe esta newsletter para ele. Ele também pode assinar aqui. (link).)
Os dois grandes acordos de fusões e aquisições deste ano atingiram diretamente um setor da tecnologia: a segurança cibernética, com a IA na mente de ambos os compradores.
Esta manhã, a Palo Alto Networks ganhou as manchetes com um acordo de US$ 25 bilhões em dinheiro e ações para adquirir a líder em segurança de identidade CyberArk – o maior negócio da empresa até o momento – enquanto ela corre para entregar um conjunto abrangente de produtos de segurança cibernética em meio à crescente demanda impulsionada pela IA.
O presidente-executivo da Palo Alto, Nikesh Arora, atribuiu o mega acordo à ascensão da IA e à explosão de identidades de máquina, o que, segundo ele, deixou claro que o futuro da segurança deve ser construído com base na visão de que “toda identidade requer o nível certo de controles de privilégios”.
É o segundo maior negócio já fechado por uma empresa de tecnologia israelense, ocorrendo poucos meses após a compra de US$ 32 bilhões pelo Google da empresa de segurança em nuvem Wiz.
As ameaças à IA tornaram-se o tema definidor da segurança, disse-me Ami Luttwak, CTO da Wiz. De falsificações profundas a phishing automatizado e sites de disparo rápido criados por codificação Vibe. , as empresas estão se vendo obrigadas a lidar com um volume cada vez maior de softwares derivados de IA sendo lançados em uma velocidade sem precedentes — e isso significa que as ferramentas de segurança precisam evoluir com a mesma rapidez. Isso está impulsionando uma mudança de abordagens manuais baseadas em serviços para detecção em tempo real e proteção automatizada.
À medida que as empresas buscam otimizar os fornecedores após inúmeras violações terem exposto os limites da segurança fragmentada, não se surpreenda se mais consolidação estiver a caminho.
No boletim informativo desta semana, vamos nos aprofundar nas perspectivas divididas vindas de Washington sobre como os Estados Unidos exportam sua tecnologia de IA, analisaremos mais de perto novos dados sobre onde o ChatGPT obtém seu conhecimento e exploraremos a mais recente arquitetura de modelo de IA que está gerando burburinho entre os pesquisadores.
NOSSOS ÚLTIMOS RELATÓRIOS SOBRE TECNOLOGIA E IA
Exclusivo – Nvidia encomenda 300.000 chips H20 da TSMC devido à forte demanda da China
Google assinará código de práticas de IA da UE apesar das preocupações
Governo Trump vai turbinar as vendas de IA para aliados e flexibilizar regras ambientais
Empresas chinesas de IA formam alianças para construir ecossistema doméstico em meio às restrições dos EUA
Atores de voz reagem à medida que a IA ameaça a indústria de dublagem
‘É a voz mais empática da minha vida’: como a IA está transformando a vida de pessoas neurodivergentes
A DIVISÃO DE CHINA CHIP DE DC
Os parlamentares norte-americanos parecem não conseguir chegar a um acordo sobre a melhor forma de usar a poderosa tecnologia de IA do país para moldar a ordem mundial. O debate em Washington – marcado por duas visões bastante distintas para a regulamentação e os controles de exportação de IA nos EUA – tem os valiosos chips da Nvidia NVDA no centro, enquanto os Estados Unidos navegam em sua relação bilateral mais importante do século: com a China.
Por enquanto, o lado que defende uma abordagem mais aberta parece estar em vantagem. Numa reviravolta política dramática, o governo Trump suspendeu uma proibição anterior e permitiu que a Nvidia retomasse as vendas de suas GPUs H20 para a China. A lógica, como disse Kevin Hassett, conselheiro econômico nacional da Casa Branca, é manter a vantagem tecnológica dos EUA: se a China não está comprando chips dos EUA, então está inovando e fabricando os seus próprios.
Essa é a visão que o presidente-executivo da Nvidia, Jensen Huang, também vem defendendo. Sua empresa — a mais valiosa do mundo — ainda obtém uma porcentagem de um dígito médio de sua receita da China.(embora esse número costumava ser muito maior) Sua visão, que posiciona chips, softwares e infraestrutura de nuvem fabricados nos EUA como a espinha dorsal do desenvolvimento global da IA, conquistou aliados importantes, incluindo o investidor que virou czar da IA e das criptomoedas na Casa Branca, David Sacks. Essa coalizão, em última análise, ajudou a impulsionar a reversão da política de proibição da venda de chips.
Este momento me lembra da cobertura de tecnologia na China durante a década de 2010, quando as empresas americanas ainda tinham presença no enorme mercado do país e os líderes da tecnologia pressionavam Washington regularmente para manter essas portas abertas. Hoje, com exceção da Apple, a maioria dos CEOs de tecnologia dos EUA praticamente desapareceu do mercado local da China e raramente defende o acesso a ele.
O impacto na Nvidia já é visível. Nossa reportagem exclusiva revela que a Nvidia fez um pedido de 300.000 chipsets H20 para a TSMC de Taiwan na semana passada – uma decisão impulsionada pela demanda inesperadamente forte da China. Foi o suficiente para a Nvidia perceber que depender de seu estoque existente não seria suficiente.
Ainda assim, alguns parlamentares de ambos os lados e ex-oficiais de segurança nacional estão reagindo fortemente à iniciativa do governo de flexibilizar as restrições a chips. Em uma carta esta semana, eles argumentaram que a decisão provavelmente enfraqueceria a eficácia dos controles de exportação e encorajaria Pequim a buscar mais concessões de Washington. Há também preocupações de que a medida possa dar a Pequim uma vantagem crucial, especialmente em inteligência artificial e vigilância militar.
De qualquer forma, a China não está esperando. Empresas chinesas de IA formaram novas alianças industriais para promover um ecossistema tecnológico autossustentável. A Huawei acaba de lançar seu novo sistema de computação de IA. em Xangai, que alguns dizem que pode rivalizar com os chips mais avançados da Nvidia – um sinal claro de que a China está investindo pesadamente em autossuficiência e inovação para preencher quaisquer lacunas deixadas pela política dos EUA.
GRÁFICO DA SEMANA
Muitas pessoas aprendem coisas com o ChatGPT agora, mas onde o ChatGPT aprende seu conhecimento? A startup de IA Profound analisou (link) 10 milhões de citações no ChatGPT de agosto de 2024 a junho de 2025, e os resultados são bastante reveladores. O ChatGPT demonstra uma clara preferência pela Wikipédia, que representa quase metade(47,9%) das suas 10 fontes mais citadas(não o total de citações em todo o conjunto de dados). Também conta com veículos de mídia como Forbes, Reuters e Business Insider para fornecer informações mais atualizadas. A OpenAI, empresa por trás do ChatGPT, tem firmado acordos ativamente com empresas de mídia para rastrear e citar seu conteúdo. Em comparação, o AI Overview do Google se apoia mais no ecossistema do Google, com quase 19% de suas principais fontes vindas do YouTube.

O QUE OS PESQUISADORES DE IA ESTÃO LENDO
Por Kenrick Cai, correspondente de tecnologia
O que vem depois do modelo Transformer, o “T” no ChatGPT? Um artigo de pesquisa (link) este mês introduziu “mistura de recursões”(MoR para breve), anunciado como uma alternativa potencial aos populares modelos Transformer, que foram desenvolvidos por pesquisadores do Google em 2017 e formaram a base técnica para a atual corrida da IA.
O Google é um colaborador do artigo do MoR, em colaboração com o instituto canadense de pesquisa de IA Mila, a Universidade de Montreal e o Instituto Avançado de Ciência e Tecnologia da Coreia.
O MoR se baseia na tecnologia de transformadores de duas maneiras principais. Simplificando, os transformadores processam o texto por meio de uma série de etapas, cada etapa baseada na anterior com um novo conjunto de instruções para refinar ainda mais a compreensão do significado do texto pela IA; o MoR envolve um número menor de etapas, mas repetido várias vezes. E enquanto os transformadores padrão processam cada palavra com a mesma profundidade, o MoR envolve uma técnica em que palavras simples passam por menos cálculos e palavras complexas por mais.
Em demonstrações de pesquisa, os autores do artigo demonstraram que o MoR pode melhorar drasticamente a eficiência dos modelos de IA. Isso significa resultados mais rápidos com menos poder computacional necessário, um grande potencial para o setor, já que os custos da IA continuam a disparar. A Alphabet, empresa controladora do Google, elevou suas projeções de investimento de capital para 2025. de US$ 75 bilhões para US$ 85 bilhões na semana passada, citando a necessidade de construir mais data centers e servidores.
Mas, como acontece com muitos experimentos de pesquisa, os autores alertaram que mais testes são necessários para validar se seus resultados serão rastreados em larga escala. O artigo testou modelos de IA com até 1,7 bilhão de parâmetros; o GPT-4 da OpenAI, em comparação, possui bem mais de 1 trilhão de parâmetros.
