Automatizando Fluxos de Trabalho com IA LOCAL: Guia Completo para Configuração do Ollama + n8n
Introdução
Nos dias de hoje, a automação é uma das principais estratégias adotadas por empresas que desejam melhorar sua eficiência operacional. Com ferramentas como Ollama e n8n, você pode criar um motor de AIOps local que automatiza completamente suas operações de rede, sem a necessidade de chaves de API ou serviços em nuvem. Neste artigo, vamos explorar como configurar e utilizar essas ferramentas de forma integrada, proporcionando um guia passo a passo para criar uma infraestrutura robusta e totalmente gratuita.
O que é Ollama?
Ollama é uma ferramenta inovadora de IA que permite implementar modelos de linguagem de maneira local. Ela se destaca por sua capacidade de operar sem depender de serviços de nuvem, oferecendo mais controle sobre os dados e uma experiência de uso mais rápida. Quando combinada com n8n, Ollama possibilita a automação de tarefas complexas, tornando-se uma escolha ideal para empresas que buscam otimizar seus fluxos de trabalho.
O que é n8n?
n8n é uma plataforma de automação de fluxo de trabalho de código aberto, que permite conectar diferentes serviços e aplicativos. Com uma interface amigável e a capacidade de criar workflows visuais, é uma ferramenta poderosa para unir diversas tecnologias em um único sistema cohesivo. A combinação do n8n com o Ollama resulta em um ambiente de automação totalmente local, perfeito para AIOps e tarefas de rede.
Vantagens de Usar Ollama e n8n
- Custo Zero: Ambas as ferramentas são gratuitas e podem ser executadas no ambiente local, eliminando custos associados a serviços em nuvem.
- Segurança e Privacidade: Ao manter os dados localmente, você reduz o risco de vazamentos de informações sensíveis.
- Flexibilidade: A personalização de fluxos de trabalho se torna mais acessível com o uso dessas ferramentas, permitindo ajustes conforme a necessidade da sua organização.
- Integração Simples: n8n permite a integração de diversas aplicações, enquanto Ollama oferece suporte à modelagem de linguagem, tornando a automação ainda mais eficiente.
Pré-requisitos
Antes de iniciar a configuração, é essencial certificar-se de que você possui os seguintes itens:
- Um computador com suporte para Docker.
- Conhecimentos básicos de linha de comando.
- Uma instalação de n8n (que pode ser feita usando Docker).
- A ferramenta Ollama instalada.
Passo a Passo: Configuração do Ollama + n8n
1. Instalação do Docker
Para facilitar a execução do Ollama e n8n, é recomendado utilizar o Docker. Siga estas etapas para instalar:
-
Para Windows e macOS:
- Acesse o site oficial do Docker e baixe a versão estável.
- Siga as instruções para instalar o Docker Desktop.
-
Para Linux:
- Abra o terminal e execute os comandos adequados para sua distribuição. Exemplo para Ubuntu:
bash
sudo apt-get update
sudo apt-get install docker-ce docker-ce-cli containerd.io
- Abra o terminal e execute os comandos adequados para sua distribuição. Exemplo para Ubuntu:
2. Instalando o n8n
Após ter o Docker instalado, você pode proceder com a instalação do n8n:
bash
docker run -it –rm
–name n8n
-p 5678:5678
n8nio/n8n
Acesse o n8n através do seu navegador em http://localhost:5678.
3. Instalando o Ollama
Para a instalação do Ollama, siga as instruções disponíveis na documentação oficial do Ollama. Certifique-se de que o Ollama esteja funcionando corretamente localmente.
4. Conectando Ollama ao n8n
Agora que ambos estão instalados, você pode integrar o Ollama ao n8n:
- No painel do n8n, crie um novo workflow.
- Adicione um novo nó (Node) e selecione “HTTP Request”.
- Configure a URL para apontar para o servidor do Ollama (
http://localhost:PORTA_DO_OLLAMA). - Defina os parâmetros da requisição que deseja enviar para o Ollama.
5. Criando um Fluxo de Trabalho Automático
Agora que a conexão entre Ollama e n8n está estabelecida, você pode criar fluxos de trabalho automatizados. Por exemplo, um fluxo que receba dados de entrada, processe por meio do Ollama e envie uma resposta:
- Adicione um nó “Webhook” no n8n para receber dados externos.
- Em seguida, conecte este nó ao “HTTP Request” que faz a chamada para o Ollama.
- Finalmente, adicione um nó “Set” para formatar a resposta e um nó “HTTP Response” para enviar de volta ao solicitante.
6. Testando seu Workflow
É hora de testar seu fluxo de trabalho:
- Utilize ferramentas como Postman ou Insomnia para enviar requisições para o Webhook do n8n.
- Verifique se o Ollama processa a entrada conforme esperado e retorna a saída correta.
Conclusão
Automatizar fluxos de trabalho com ferramentas como Ollama e n8n pode transformar a maneira como sua equipe opera, especialmente em tarefas de rede e administração. Este guia fornece uma base sólida para que você inicie sua jornada na automação, utilizando uma solução totalmente gratuita e sem a necessidade de infraestrutura na nuvem.
Explore as vastas possibilidades de personalização e integração que essas ferramentas oferecem, e comece a colher os benefícios de um ambiente de trabalho mais eficiente e organizado. Se você ainda não começou a usar essa poderosa combinação, agora é a hora!


Thanks for watching! 📋 QUICK REFERENCE — All Commands & Configs
🔧 OLLAMA (Windows)
ollama –version
ollama list
ollama pull deepseek-r1:8b
ollama pull phi3:mini
ollama run deepseek-r1:8b "Generate Ansible Playbook for Cisco OSPF config"
curl http://localhost:11434/api/tags
# Fix remote access (Admin PowerShell):
[System.Environment]::SetEnvironmentVariable("OLLAMA_HOST", "0.0.0.0:11434", "Machine")
netsh advfirewall firewall add rule name="Ollama API" dir=in action=allow protocol=TCP localport=11434
🔧 N8N (Ubuntu)
curl -fsSL https://deb.nodesource.com/setup_20.x | sudo -E bash –
sudo apt install -y nodejs
sudo npm install -g n8n
n8n start
# Test webhook:
curl -X POST http://<n8n-ip>:5678/webhook-test/user-request
-H "Content-Type: application/json"
-d '{"request": "Configure OSPF area 0 on all routers"}'
🔧 N8N NODES
Node 1: Webhook → POST, Path: user-request
Node 2: Ollama – POST → POST http://<ollama-ip>:11434/api/generate
JSON Body:
{
"model": "phi3:mini",
"prompt": "Generate Ansible playbook for: {{ $json.body.request }}. Detect the correct Ansible collection based on the device vendor mentioned. Support cisco.ios, arista.eos, junipernetworks.junos. Output YAML only, no explanation.",
"stream": false
}