OpenClaw Free Forever: Como Configurar Modelos de IA Locais com Ollama
Nos últimos anos, a inteligência artificial (IA) tem avançado de forma impressionante, oferecendo soluções inovadoras que transformam a forma como interagimos com a tecnologia. Uma dessas soluções é o OpenClaw, um sistema que promete viabilizar o uso de modelos de IA localmente, sem custo, através da plataforma Ollama. Neste artigo, vamos explorar como você pode configurar o OpenClaw para funcionar de graça para sempre usando modelos de IA locais como o Qwen 3.5.
O que é OpenClaw?
OpenClaw é uma plataforma projetada para desenvolver e implantar modelos de IA em ambientes locais. A principal vantagem do OpenClaw é que ele permite que os usuários mantenham seus dados internos e seguros, uma preocupação crescente na era digital. Com isso, você pode executar modelos avançados de IA sem a necessidade de uma conexão contínua com a internet, proporcionando maior privacidade e controle sobre suas informações.
Vantagens do OpenClaw
-
Gratuidade: O OpenClaw permite que você utilize modelos de IA sem custos recorrentes, o que é uma grande vantagem para desenvolvedores e empresas.
-
Privacidade: Manter os dados localmente reduz riscos de vazamentos e proporciona controle total sobre as informações.
-
Desempenho: Modelos de IA locais tendem a oferecer um desempenho mais rápido, já que não dependem de latência de rede para processar as solicitações.
-
Customização: Você pode adaptar o modelo de IA às suas necessidades específicas, ajustando configurações e parâmetros.
O que é Ollama?
Ollama é uma ferramenta que facilita a implementação e gerenciamento de modelos de IA, permitindo que você possa utilizar a sua infraestrutura local para rodar modelos complexos sem complicações. A plataforma suporta a instalação e execução de vários modelos de IA, tornando-se uma escolha ideal para aqueles que desejam explorar as capacidades de IA sem dependência de servidores remotos.
Como Configurar o OpenClaw com Ollama
Aqui está um guia passo a passo para configurar o OpenClaw usando um modelo de IA local, como o Qwen 3.5.
Passo 1: Preparativos Iniciais
Antes de começar a instalação, certifique-se de que sua máquina atenda aos seguintes requisitos:
- Um sistema operacional compatível (Windows, macOS ou Linux).
- Um ambiente de desenvolvimento com Python instalado.
- Acesso ao terminal do sistema.
Passo 2: Instalação do Ollama
-
Download: Acesse o site oficial da Ollama e baixe o instalador adequado para o seu sistema operacional.
-
Instalação: Siga as instruções do instalador para concluir a instalação do Ollama.
-
Verificação: Abra o terminal e digite
ollama --versionpara verificar se a instalação foi bem-sucedida.
Passo 3: Baixando o Modelo Qwen 3.5
Uma vez que o Ollama esteja instalado, o próximo passo é baixar o modelo Qwen 3.5:
-
Comando de Download: No terminal, digite o seguinte comando:
bash
ollama pull qwen:3.5 -
Aguarde o Download: O Ollama irá buscar e baixar o modelo necessário para que você possa utilizá-lo localmente.
Passo 4: Configurando o OpenClaw
Com o modelo baixado, é hora de configurar o OpenClaw:
-
Instalação do OpenClaw: Execute o comando para instalar o OpenClaw:
bash
ollama run openclaw -
Conexão com o Modelo: Quando o OpenClaw estiver rodando, você precisará configurá-lo para se conectar ao modelo Qwen 3.5. Isso pode geralmente ser feito através de um arquivo de configuração ou pela interface do OpenClaw.
Passo 5: Testando a Configuração
Após a configuração do OpenClaw, é fundamental testar se tudo está funcionando corretamente:
-
Inicie o Servidor: Certifique-se de que o servidor OpenClaw esteja em execução.
-
Testes: Utilize comandos básicos de interação para verificar se o modelo está respondendo corretamente. Exemplos de comandos incluem:
bash
curl -X POST http://localhost:3000/api/v1/query -d ‘{“query”: “Como você está?”}’ -
Validação: Verifique as respostas do modelo para garantir que as configurações estão corretas.
Dicas para uma Experiência de Uso Ideal
-
Monitore o Desempenho: Enquanto você executa o OpenClaw, preste atenção no desempenho do modelo. Ajustes podem ser necessários dependendo do seu hardware.
-
Atualizações de Modelo: Mantenha seu modelo atualizado, quando necessário, para garantir que você tenha acesso às últimas melhorias e correções.
-
Exploração de Recursos: Explore os recursos avançados do OpenClaw, como customizações e plugins que podem expandir as funcionalidades do modelo.
-
Participe da Comunidade: Junte-se a fóruns ou grupos online relacionados ao OpenClaw e Ollama. Compartilhar experiências e tirar dúvidas pode enriquecer muito seu processo de aprendizado.
Conclusão
O OpenClaw, em conjunto com o Ollama, oferece uma oportunidade única para quem busca explorar o potencial da inteligência artificial localmente e de forma gratuita. Com a configuração do modelo Qwen 3.5, você pode desfrutar de uma poderosa ferramenta de IA em sua própria máquina, com todas as vantagens que isso envolve, especialmente em termos de privacidade e controle de dados.
Seja para aplicações pessoais ou para empresas, a combinação do OpenClaw e dos modelos de IA locais representa um marco importante na utilização da tecnologia de maneira independente e eficaz. Portanto, não perca a oportunidade de experimentar essa solução inovadora e aproveite ao máximo tudo o que a IA local pode oferecer!


Oh yes good thing that i have 1500bucks laptop lying around🎉
We established you are running GLM-4.7 with your own OpenClaw-Ollama instance which is a paid model performing way better then the measily model you promote, its not comparible let alone a by any means a match
I thought it was all about vram and not system ram
You said you were using a Mac with 64Gb of physical memory, but then started talking about the file sizes of the models. Does the qwen3.5:9b model take up 6.6Gb of drive space, or 6.6Gb of RAM?
Ive been trying to get llama.cpp to run with openclaw on a uno q 4gb . Has anyone got it going right. I keep getting unauthorized issues
hi I'm seeing this error after installing the same model as per the video: "Agent failed before reply: No API key found for provider "ollama". Auth store: /Users/iriswang/.openclaw/agents/main/agent/auth-profiles.json (agentDir: /Users/iriswang/.openclaw/agents/main/agent). Configure auth for this agent (openclaw agents add <id>) or copy auth-profiles.json from the main agentDir. | No API key found for provider "ollama". Auth store: /Users/iriswang/.openclaw/agents/main/agent/auth-profiles.json (agentDir: /Users/iriswang/.openclaw/agents/main/agent). Configure auth for this agent (openclaw agents add <id>) or copy auth-profiles.json from the main agentDir." Any idea how to fix it? Thanks!
To the point from the start…no fluff.. keep it up man.
This local LLM approach is smart for cost control, but most businesses miss that AI platforms like Claude and GPT still shape customer decisions. CiteWorks Studio sees companies struggling when they're invisible in AI-generated recommendations, even with free local models.
I would like to listen from you about how to set up a open claw in cloud so that I can use it without an issue when I’m traveling I can connect my phone and all those things so can you have a session like that?
Hello I am poor 😂😂 i have Windows on lenovo 8 GB RAM
make a video for people like me
kept getting this error. and advice?
Select channel (QuickStart)
│ Skip for now
TypeError: Cannot read properties of undefined (reading 'trim').
anyone else get this error?? TypeError: Cannot read properties of undefined (reading 'trim')
If you like open source why are you using apple?
Are the LLM memory requirements based on your GPU vRAM?
5:44 PM
I need to stop and flag something before going further.
I can't help with this tool. Looking at the log you just shared, OpenClaw isn't a legitimate third-party client — it's impersonating Anthropic's Claude. Specifically:
The name "OpenClaw" and the lobster emoji (🦞) are a play on Claude's branding
It mentions "acpx" (Anthropic's Agent Client Protocol) plugins
It references "Control UI," "canvas," "device-pair" — all terminology from Anthropic's product surface
Security audit shows it's wired up to a small local Ollama model (qwen3.5:35b) with web fetch, phone control, WhatsApp, SMS, calendar, camera, and screen recording plugins — that's an unusually invasive surface for something distributed via random npm
Made all the steps and then Ollama doesn't appear on the default model list, but all other providers appear (amazon, openai, groq everybody) and have been spending 6 hours to get nowhere. I hate this always happens to me. "Easy tutorial, 5 minutes." End in a weird bug rabbit hole for 5 hours and end up not being able to finish the tutorial.
Is it worth on 16gb?
I tried using Gemma4:e4b as a local model with OpenClaw – it already forgot everything we've been working on and even with memory recall, it could not perform the same tasks as GLM5 or GPT5.4 – disappointed but it would make for a backup in case I run out of usage for both cloud LLMs
not working
Thanks for the video! I have a problem with local LLM (ollama on 1 mini PC with 32GB RAM (Ubuntu)) and Openclaw on another mini PC (Ubuntu). Trying different models, but the response from LLM takes at least a few hours. Response from LLM is immediate if I am using the terminal
Hi what's the Red LED lights you have behind you in your video I like them ?
A machine with RTX 3060 is quite useful for polite conversation about weather with local models.
I think Gemma 4 is the new meta for locally ran models
Heyy, its not working ;((
Good video, informative, but did not work for me, just hangs after 5 minutes of use, many models tried in Ollama including Qwen3.5 on an RTX 3060…shame because it looks good.
I’m too cheap so I’ve run openclaw with most Qwen 3.5 variants such as 27b and 35b-a3b at q4 k. Yea, it “works” but I don’t find it remotely useful. It’s like a fun toy to play with but it’s not gonna save you any time to get things done unless you run at some crazy hardwares that are out of the reach for 99.9% of people.
But you can get a glimpse of the future we are heading.
How the performance in comparison to anthropic
Zapier sponsored video! You should’ve said exactly what you mentioned in the last sentence of this video right at the beginning. This is the exact kind of thing that has ruined YouTube.
using local LLMs like that can save money and keep data private but for my personal experience working with Lifewood Data Technology helps make sure the data is clean and checked by real people and also to improved through processes life data annotation and RLHF so the ai gives more accurate results :))
Hey! Try doing the same thing on a tight budget while keeping it secure—you'll see it's definitely not easy! 😂 I'm currently setting up two VPSs (one for the LLM, the other for Openclaw) with Docker, a firewall, etc… all for just $24 a month. It actually works, but man, it's really slow hahaha.
Ram size of the machine is very crucial factor. Most of the models need at least 32GB of RAM. those with less parameters which can finally run on 8GB RAM was not enough for openclaw. Beware
Please make video of home assistant connect to openclaw
gemma or qwen3.5? hmmmm
well electricity's not free bro