Jan 08, 2026
Bruno S.
12min de leitura
A integração entre n8n e Ollama permite usar diferentes modelos de IA diretamente nos seus workflows de automação. Isso abre espaço para executar tarefas mais complexas, que seriam difíceis ou inviáveis sem o uso de LLMs rodando localmente.
Apesar disso, o processo exige atenção, já que é preciso configurar corretamente os dois lados para que tudo funcione sem erros. A boa notícia é que, se você já tem o n8n e o Ollama instalados no servidor, a integração pode ser feita em poucos passos.
De forma geral, o processo envolve:
Depois disso, você terá um workflow de processamento com IA usando n8n Ollama, pronto para ser integrado a automações mais completas. Por exemplo, dá para conectar aplicativos de mensagens, como o WhatsApp, e criar um chatbot funcional baseado em IA.
Outro ponto importante é que rodar essa integração localmente, em um servidor privado como um VPS, oferece mais controle sobre os dados. Isso torna o uso ideal para automações que lidam com informações sensíveis, como resumir documentos internos ou criar um chatbot interno para a empresa.
A seguir, vamos ver em detalhes como conectar o Ollama ao n8n e montar um chatbot com essa integração. No final, também explicamos os casos de uso mais comuns e como expandir as possibilidades usando os nodes do LangChain.
Para integrar o n8n com o Ollama, você precisa atender aos seguintes pré-requisitos:
Importante! Recomendamos fortemente a instalação do n8n e do Ollama no mesmo contêiner Docker para melhor isolamento. Este é o método que usamos para testar este tutorial, portanto, está comprovado que funciona.
Se você usa um VPS da Hostinger, pode começar instalando o n8n ou o Ollama em um contêiner Docker, bastando selecionar o modelo de sistema operacional correspondente – o aplicativo será instalado em um contêiner por padrão. Em seguida, você precisará instalar o outro aplicativo no mesmo contêiner.
Conectar o Ollama ao n8n envolve adicionar o node necessário e ajustar algumas configurações para que os dois funcionem juntos. Nesta seção, vamos explicar o passo a passo em detalhes, incluindo como testar se a integração n8n Ollama está funcionando corretamente.
Adicionar o node Ollama Chat Model permite que o n8n se conecte a modelos de linguagem (LLMs) do Ollama por meio de um agente conversacional.
O n8n oferece dois nodes relacionados ao Ollama: Ollama Model e Ollama Chat Model. O Ollama Chat Model foi pensado especificamente para conversas e já vem com um node Basic LLM Chain integrado, que encaminha sua mensagem para o modelo escolhido. Já o node Ollama Model é mais indicado para tarefas gerais, combinado com outros nodes de Chain – falaremos melhor sobre isso na seção de LangChain.
Neste tutorial, vamos usar o Ollama Chat Model porque ele é mais simples de configurar e encaixa melhor em um workflow mais completo. Veja como adicionar no n8n:


A janela de configuração do node vai aparecer. No próximo passo, vamos ajustar as configurações para deixar a integração n8n Ollama pronta para uso.
Antes de selecionar um modelo de IA e ajustar as configurações de execução, é preciso conectar o n8n à sua instância do Ollama hospedada localmente. Veja como fazer isso:

Se a conexão der certo, você verá uma mensagem de confirmação. Caso contrário, confira se o endereço está correto e se o Ollama está em execução.

Depois de conectar, você já pode escolher qual LLM usar no node do Ollama. Para isso, basta abrir o menu Model e selecionar um modelo da lista. Se a lista aparecer desativada (acinzentada), atualizar a página do n8n costuma resolver.
Vale notar que, no momento, o n8n oferece suporte apenas a modelos mais antigos, como Llama 3 e DeepSeek R1. Se o menu Model mostrar erro ou aparecer vazio, provavelmente o seu Ollama só tem modelos incompatíveis instalados.
Para resolver isso, basta baixar outros modelos no Ollama. Pelo terminal (CLI), use o comando abaixo no ambiente onde o Ollama está rodando:
ollama run nome-do-modelo
Você também pode usar um modelo com configurações de execução personalizadas, como uma temperatura diferente. Veja como criar isso usando o Ollama CLI.
docker exec -it ollama bash
echo "FROM llama3" > Modelfile echo "PARAMETER temperature 0.7" >> Modelfile
ollama create llama3-temp07 -f Modelfile
Ao concluir esses passos, o n8n já deve reconhecer o novo modelo Llama 3 com temperatura personalizada em 0.7.

Se você usa Ollama GUI, confira nosso tutorial para aprender mais sobre sua interface e como gerenciar seus modelos.
Configurar os prompts permite personalizar como o node Basic LLM Chain trata sua entrada antes de enviá-la ao Ollama para processamento. Embora seja possível usar as configurações padrão, o ideal é ajustá-las de acordo com o tipo de tarefa que você quer executar no workflow n8n Ollama.

Existem duas formas principais de modificar as configurações de prompt do LLM chain, cada uma indicada para um tipo de uso.
Chat Trigger conectado
A opção Connected Chat trigger node usa as mensagens do node Chat padrão como entrada para o Ollama. Esse é o modo ativado por padrão e envia as mensagens exatamente como foram recebidas.
Mesmo assim, você pode adicionar prompts extras para influenciar a resposta do modelo. Para isso, clique em Add Prompt na opção Chat Messages (if Using a Chat Model) e escolha entre três tipos de prompt adicionais:
Define below
A opção “Define below” é adequada se você quiser inserir um texto predefinido e reutilizável. É também ideal para encaminhar dados dinâmicos, pois permite capturá-los usando Expressões – uma biblioteca JavaScript que manipula a entrada ou seleciona um campo específico.
Por exemplo, o node anterior coleta dados sobre o uso de recursos do seu VPS e você deseja analisá-los usando IA. Nesse caso, o aviso permanece o mesmo, mas as métricas de uso mudarão continuamente.
Seu prompt pode ser semelhante ao seguinte, onde {{ $json.metric }} é o campo que contém dados dinâmicos sobre o uso de recursos do seu servidor:
O uso mais recente do meu servidor é {{ $json.metric }}. Analise esses dados e compare com o histórico anterior para verificar se há algo fora do padrão.Vale lembrar que você ainda pode adicionar prompts extras, como no modo anterior, para dar mais contexto ao modelo de IA.
Enviar um prompt de teste serve para confirmar se o modelo do Ollama está funcionando corretamente ao receber entradas via n8n. A forma mais simples de fazer isso é enviar uma mensagem de exemplo seguindo estes passos:

Aguarde até o workflow terminar de processar a mensagem. Durante nossos testes, o fluxo travou algumas vezes. Se isso acontecer com você, basta recarregar o n8n e enviar a mensagem novamente.
Se o teste for bem-sucedido, todos os nodes ficarão verdes. Para ver os dados de entrada e saída de cada node, dê um duplo clique nele e confira os painéis dos dois lados da janela de configuração.
Integrar o Ollama ao n8n permite automatizar várias tarefas com LLMs, incluindo a criação de um workflow com IA no n8n capaz de responder a perguntas dos usuários, como um chatbot. Nesta seção, vamos mostrar os passos para desenvolver esse tipo de automação usando n8n Ollama.
Se você deseja criar um sistema de automação para outras tarefas, confira nossos exemplos de fluxo de trabalho n8n para se inspirar.
O node de gatilho no n8n define qual evento inicia o workflow. Para criar um chatbot, estas são as opções mais comuns.
Chat trigger
Por padrão, o node Ollama Chat Model usa Chat message como gatilho, iniciando o workflow sempre que uma mensagem é recebida.
Esse Chat node padrão é ideal para criar um chatbot. Para colocá-lo em funcionamento, basta tornar a interface de chat pública.

Depois disso, você pode incorporar esse chat em um chatbot próprio, com interface personalizada.
Nodes de gatilho para apps de mensagens
O n8n também oferece nodes de gatilho para aplicativos populares de mensagens, como Telegram e WhatsApp. Eles são indicados se você quiser criar um bot para essas plataformas.
A configuração costuma ser mais complexa, já que exige conta de desenvolvedor e chaves de autenticação para acessar as APIs. Consulte a documentação de cada serviço para entender o processo em detalhes.
Webhook trigger
O gatilho Webhook inicia o workflow quando a URL do endpoint recebe uma requisição HTTP. Essa opção é útil se você quiser disparar o chatbot a partir de outros eventos, como um clique em um botão.
Nos próximos passos, vamos usar esse node para iniciar o workflow sempre que um chatbot do Discord receber uma mensagem.
Importante! Se o URL do seu webhook começar com localhost, altere-o para o domínio, nome do host ou endereço IP do seu VPS. Você pode fazer isso modificando a variável de ambiente WEBHOOK_URL do n8n dentro do seu arquivo de configuração.
Conectar o node do Ollama permite que o node de gatilho envie a entrada do usuário para processamento com IA.
O node Ollama Chat Model não se conecta diretamente aos gatilhos. Ele precisa ser ligado a um node de IA. O padrão é o Basic LLM Chain, mas você também pode usar outros Chain nodes se precisar de um processamento mais avançado.
Alguns Chain nodes oferecem ferramentas extras para tratar os dados. Por exemplo, o node AI Agent permite adicionar um parser para reformatar a resposta ou usar memória para armazenar mensagens anteriores.
Para um chatbot simples, que não exige processamento complexo – como o chatbot de Discord deste exemplo – o Basic LLM Chain é suficiente.

Agora, conecte o node de gatilho ao Basic LLM Chain e defina como a entrada será enviada. Use a opção Fixed para passar a mensagem diretamente como prompt. Já a opção Expression é ideal quando você precisa trabalhar com dados dinâmicos ou ajustar a entrada antes de enviá-la ao Ollama.
Por exemplo, neste caso usamos a expressão abaixo para selecionar o campo JSON body.content como entrada, que muda de acordo com a mensagem enviada no Discord:
{{ $json.body.content }}Para que os usuários vejam a resposta gerada pelo modelo, é preciso enviar a saída do node AI Agent ou do Basic LLM Chain para algum canal de retorno. Nesse ponto, a resposta pode ser visualizada apenas pela interface de chat do n8n ou pelo painel de saída do node.
Para enviar a mensagem ao usuário, use um node compatível com o gatilho escolhido. Por exemplo, ao criar um chatbot no WhatsApp, conecte o node WhatsApp send message.
Se você estiver usando o Chat trigger padrão, também pode usar um Webhook para encaminhar a resposta para um bot ou interface de chatbot desenvolvida por você.
No caso do nosso chatbot de Discord, como o workflow usa um Webhook trigger, podemos usar o próprio Webhook para retornar a resposta. Outra opção é enviar a mensagem diretamente pelo bot, conectando o node Discord Send a Message e integrando-o ao chatbot. O workflow final fica mais ou menos assim:

O n8n oferece vários fluxos de trabalho prontos para uso que você pode importar facilmente para sua tela. Isso permite criar um sistema de automação baseado em IA sem precisar desenvolver o fluxo de trabalho do zero. Confira nosso tutorial com os melhores modelos n8n para descobrir fluxos de trabalho selecionados e prontos para uso para diversas finalidades.
Como uma das ferramentas mais poderosas de automação com IA, a integração do n8n com os LLMs personalizáveis do Ollama permite automatizar uma grande variedade de tarefas.
Aqui estão alguns exemplos de tarefas que você pode automatizar com o n8n e IA:
Hospedar seus fluxos de trabalho n8n-Ollama com a Hostinger traz diversas vantagens em relação ao uso de uma máquina pessoal ou do plano de hospedagem oficial. Aqui estão alguns dos benefícios:

O LangChain é um framework que facilita a integração de modelos de linguagem (LLMs) em aplicações. No n8n, isso acontece conectando nodes de ferramentas e modelos de IA para alcançar capacidades específicas de processamento.
No n8n, o recurso de LangChain funciona com Cluster nodes – um conjunto de nodes interligados que trabalham juntos para entregar uma funcionalidade dentro do workflow.

Os Cluster nodes têm duas partes: os root nodes, que definem a funcionalidade principal, e os sub-nodes, que adicionam a capacidade de LLM ou recursos extras.
O ponto mais importante da implementação do LangChain no n8n é a Chain dentro dos root nodes. É ela que organiza a lógica e conecta os diferentes componentes de IA – como o modelo do Ollama e um node de parser – para formar um sistema coeso.
Estas são as Chains disponíveis no n8n e o que cada uma faz:
Ao criar um workflow no n8n, você também pode encontrar os Agents – que são variações de Chains com capacidade de “tomar decisões”. Enquanto as Chains seguem regras pré-definidas, um Agent usa o LLM conectado para decidir quais serão os próximos passos e quais ações executar.
Com a evolução contínua das tendências de automação, a implementação de um sistema automático de processamento de dados ajudará você a se manter à frente da concorrência. Em conjunto com a IA, você pode criar um sistema que levará o desenvolvimento e a gestão de seus projetos a um novo patamar.
A integração do Ollama ao seu fluxo de trabalho n8n leva a automação baseada em IA além das capacidades do nó integrado – e a compatibilidade do Ollama com vários LLMs permite que você escolha e personalize diferentes modelos de IA para melhor atender às suas necessidades.
Entender como integrar o Ollama ao n8n é apenas o primeiro passo para implementar a automação com inteligência artificial em seu projeto. Considerando a enorme quantidade de casos de uso possíveis, o próximo passo é experimentar e desenvolver um fluxo de trabalho que melhor se adapte ao seu projeto.
Se for a sua primeira vez a trabalhar com n8n ou Ollama, a Hostinger é o local ideal para começar.
Semua konten tutorial di website ini telah melalui peninjauan menyeluruh sesuai padrões editoriais e valores da Hostinger.