Escrito en TECNOLOGIA el
Pesquisadores chineses anunciaram o desenvolvimento de um novo modelo de linguagem de grande porte (LLM) chamado SpikingBrain1.0, que promete ganhos de desempenho de até 100 vezes em relação a sistemas como ChatGPT e Copilot.
O diferencial está no modo de operação. Enquanto os modelos atuais utilizam o mecanismo de attention, que analisa todas as palavras de uma frase simultaneamente para identificar padrões, o SpikingBrain1.0 procura imitar o funcionamento do cérebro humano. Ele foca apenas em palavras próximas e dispara cálculos de forma seletiva, sem consumir energia em tempo integral.
De acordo com o artigo científico, essa abordagem permite treinar continuamente o sistema utilizando menos de 2% dos dados empregados por modelos convencionais, mas ainda assim alcançando resultados comparáveis aos de soluções de código aberto já estabelecidas.
Outro ponto de destaque é a independência de hardware estrangeiro. O SpikingBrain1.0 foi testado em chips desenvolvidos pela chinesa MetaX, sem depender das GPUs da norte-americana NVIDIA, peça-chave no ecossistema atual de inteligência artificial.
A promessa de maior eficiência chega em meio a preocupações globais sobre o enorme gasto energético dos data centers que sustentam os LLMs. Analistas lembram que placas gráficas de última geração, como a RTX 5090, podem consumir até 600 watts, exigindo sistemas de resfriamento potentes e impactando o meio ambiente.
Especialistas ressaltam, porém, que os resultados ainda precisam ser verificados por pares independentes. Caso as projeções se confirmem, o SpikingBrain1.0 pode representar um avanço significativo rumo a modelos mais rápidos, sustentáveis e menos dependentes de infraestrutura estrangeira.
Comunicar erro Encontrou um erro na matéria? Ajude-nos a melhorar

