Pular para o conteúdo

GLM-4.5: O Novo Rei Open Source de IA – Poderoso, Rápido e Acessível! (Testado com Sucesso)

Banner Aleatório

Certamente! Para que eu possa criar um artigo otimizado para SEO com base em sua descrição, preciso que você forneça mais detalhes sobre o tema que deseja abordar. Por favor, compartilhe informações como o tópico principal, palavras-chave, público-alvo e quaisquer outros detalhes relevantes que você tenha em mente. Assim, poderei elaborar um conteúdo que atenda às suas expectativas.

Banner Aleatório

GLM-4.5: A Revolução Open Source no Serviço Público

Nos últimos anos, assistimos a um avanço significativo nas tecnologias de inteligência artificial, e o lançamento do GLM-4.5 é um reflexo deste progresso. Este modelo de última geração, que se destaca como uma solução open source, promete não apenas potência e velocidade, mas também acessibilidade a recursos que antes eram limitados a grandes corporações.

Como servidor público com mais de 16 anos de experiência, vejo uma oportunidade clara: a implementação de tecnologias como o GLM-4.5 pode trazer melhorias significativas aos serviços prestados à população. Imagine a eficiência que pode ser alcançada ao automatizar processos administrativos, otimizar a comunicação interna e externa, e até mesmo na análise de dados para uma tomada de decisão mais embasada.

É crucial que, ao considerarmos a adoção dessa nova tecnologia, reflitamos sobre como utilizá-la de maneira ética e responsável. A transparência nas decisões tomadas com o auxílio da inteligência artificial deve ser uma prioridade, garantindo que as inovações sirvam ao interesse público.

A experiência que já acumulamos no setor público pode ser um guia importante na implementação do GLM-4.5. Com a colaboração entre diferentes áreas e o engajamento da sociedade, podemos explorar todo o potencial dessa tecnologia para criar um serviço público mais eficiente, econômico e, acima de tudo, que atenda às necessidades da população com qualidade.

Assim, convido todos a pensar: como podemos aplicar o GLM-4.5 e outras inovações para transformar e melhorar os resultados de nossos serviços públicos? A resposta pode ser a chave para um futuro mais eficiente e conectado com as demandas da sociedade.

Créditos para Fonte

Aprenda tudo sobre automações do n8n, typebot, google workspace, IA, chatGPT entre outras ferramentas indispensáeis no momento atual para aumentar a sua produtividade e eficiência.

Vamos juntos dominar o espaço dos novos profissionais do futuro!!!

#GLM4.5 #SOTA #Opensource #KING #Powerful #Fast #Cheap #Fully #Tested

20 Comment on this post

  1. Used the Air q3 through LMStudio on my M2 Max w/ 64GB and it runs fine. I had to override LMStudio refusal (it didn't think I had enough memory) to get it to load, however, I used it with only a 4K context….

  2. Everyone make testes like that, the real valueble teste is where you are using it on a IDE, with Prompt and Context engeneering, thats how a dev will really use it, if you can make a test like that againts Claude Code we will see if it will really be better than Claude, that is the market leader on agent coding.

  3. I wonder why Qwen is so low on that list, it's smoked every other model I've test for complex, low source material to go off of coding, it's a beast, it's saved me so much time

  4. This model could be run locally if you have 128 gb ram m4 max macbook pro or M3 Ultra. I run this model on my macbook pro, I got 128 gb ram M4 macbook pro, specifically you can use 3bit dwq quanitsed version which is equivalent q6 quanitsation in perfromance. It consumes almost 100 gb of Ram and it gives 30 tokens/second for me, which is great considering in January when I bought this laptop, I could only run llama 70b with 2/3 tokens/second . Apple's unified architecture and AI ecosystem is evolving so rapidly, Tim Cook sure can sell more high end macbook pros now easily. My bet of purchasing this device gave me result in 6 months time, but new buyers will almost immediate value. I remember using GPT 3.5 which gave around 30-40 tokens/second, which was a big thing back then, now I have SOTA model to use locally, this model is the new Deepseek moment, I forget count of how many deepeek moments happened in this month already, lol, things are only get better from for Mac AI & ML enthusiasts and all open source community.

  5. Can you compare this to qwen3 coder? Because in swe bench glm 4.5 performer about 64 and qwen 3 with 67 so im curious if you can find out which one is better in a real world scenario.

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *