tva
← Insights

Construindo um Assistente de IA Local com Busca na Web: Configuração MCP + Ollama

Como combinar modelos de linguagem locais com capacidades de busca na web mantendo seus dados privados

Configurar ferramentas de IA para uso empresarial frequentemente significa escolher entre conveniência e privacidade. Soluções baseadas na nuvem são fáceis de usar, mas enviam seus dados para outro lugar. Soluções locais mantêm tudo na sua máquina, mas podem ser complicadas de configurar e estender com capacidades adicionais.

Hoje, vamos percorrer a construção de uma configuração prática de IA que oferece ambos: um modelo de linguagem local que pode pesquisar na web quando necessário, tudo mantendo suas conversas e processamento no seu próprio hardware. Essa abordagem se alinha perfeitamente com nossa filosofia de soluções auto-hospedadas — similar à forma como mostramos que é possível rodar sua própria plataforma de automação n8n para controle completo de workflows.

As Ferramentas que Estamos Usando

Vamos começar entendendo o que cada peça faz:

Ollama: Seu Motor de IA Local

Ollama é um software que roda modelos de linguagem de grande escala no seu próprio computador. Pense nisso como uma forma de ter capacidades semelhantes ao ChatGPT sem enviar nada para a OpenAI ou outros provedores na nuvem. Ele gerencia o download de modelos, gestão de memória e os serve através de uma API simples.

A vantagem principal? Tudo fica local. Suas perguntas, as respostas da IA e qualquer processamento acontecem inteiramente na sua máquina. Isso importa para discussões de negócios sensíveis, informações proprietárias ou simplesmente quando você quer evitar mensalidades de assinatura de IA.

Model Context Protocol (MCP): Adicionando Capacidades

Modelos de linguagem são ótimos em conversação e raciocínio, mas não conseguem navegar na web, ler arquivos ou interagir com outros sistemas por conta própria. O Model Context Protocol (MCP) resolve isso fornecendo uma forma padronizada de dar aos modelos de IA acesso a ferramentas externas.

Pense no MCP como um tradutor universal entre seu modelo de IA e outros softwares. Quer que sua IA pesquise na web? Existe um servidor MCP para isso. Precisa que ela leia bancos de dados? Outro servidor MCP. A beleza é que, uma vez que você configure o protocolo, adicionar novas capacidades se torna muito mais simples.

mcphost: A Conexão Confiável

Aqui é onde fica prático. Enquanto o MCP é o padrão, você precisa de software para realmente conectar seu modelo de IA local aos servidores MCP. O mcphost faz exatamente isso, e faz bem.

Tentamos outras opções primeiro (como ollmcp), mas encontramos timeouts de conexão constantes e dificuldades de configuração. O mcphost usa arquivos de configuração explícitos em vez de tentar auto-descobrir tudo, o que significa que realmente funciona de forma confiável em cenários do mundo real.

Servidor MCP DuckDuckGo: Busca Web Privada

Para capacidades de busca na web, estamos usando um servidor MCP DuckDuckGo. Isso permite que sua IA local pesquise na web através da API do DuckDuckGo, que não rastreia usuários nem armazena históricos de busca. É o complemento perfeito para uma configuração local focada em privacidade.

Como Tudo Funciona Junto

Aqui está o fluxo quando você pede para sua IA local pesquisar algo:

  1. Você digita uma pergunta como "Pesquise sobre desenvolvimentos recentes em regulamentações de e-commerce"
  2. mcphost recebe sua mensagem e a encaminha para seu modelo Ollama local
  3. O modelo reconhece que precisa pesquisar e chama o servidor MCP DuckDuckGo através do protocolo MCP
  4. O servidor MCP pesquisa no DuckDuckGo e retorna os resultados
  5. Seu modelo local processa os resultados da busca e fornece uma resposta abrangente
  6. Tudo fica na sua máquina exceto a consulta de busca web propriamente dita

Configurando: Os Passos Práticos

Preparando a Base

Primeiro, você precisará do Ollama rodando com um modelo que suporte chamadas de ferramentas. Recomendamos qwen3:30b-a3b para um bom equilíbrio entre capacidade e velocidade:

# Install and start Ollama
ollama pull qwen3:30b-a3b
ollama serve

Instalando o mcphost

O mcphost é escrito em Go, então você precisará disso primeiro:

# On macOS
brew install go

# On Ubuntu/Debian
sudo apt install golang-go

# Install mcphost
go install github.com/mark3labs/mcphost@latest

# Make sure it's in your PATH
export PATH=$PATH:$(go env GOPATH)/bin

Configuração que Realmente Funciona

Crie um arquivo de configuração em ~/.mcphost.json:

{
  "mcpServers": {
    "duckduckgo-search": {
      "command": "uv",
      "args": [
        "run",
        "--directory",
        "/path/to/your/duckduckgo-mcp-server",
        "python",
        "src/duckduckgo_mcp_server/server.py"
      ]
    }
  }
}

Substitua /path/to/your/duckduckgo-mcp-server pelo caminho real onde você clonou o repositório.

Usando Seu Novo Assistente de IA

Uma vez que tudo estiver rodando, você pode interagir com sua IA de várias formas:

Chat Interativo

# Start a conversation
mcphost -m ollama:qwen3:30b-a3b

Isso fornece uma interface de chat onde você pode ter conversas contínuas e solicitar buscas na web quando necessário.

Perguntas Únicas

# Get a quick answer
mcphost -m ollama:qwen3:30b-a3b -p "Search for information about EU data privacy laws"

Scripts Automatizados

# Save results to a file
mcphost -m ollama:qwen3:30b-a3b -p "Search for competitors in the bowling equipment market" --quiet > research.txt

O Que Você Realmente Pode Fazer com Isso

Pesquisa e Verificação de Fatos

Peça à sua IA para pesquisar informações atuais sobre tópicos relevantes para seu negócio. Como está usando DuckDuckGo, você obtém resultados web decentes sem o rastreamento.

Pesquisa de Conteúdo

"Pesquise sobre tendências recentes em embalagens sustentáveis" fornece informações atuais que o modelo pode então analisar e resumir com base em seu treinamento.

Inteligência Competitiva

"Pesquise notícias sobre [nome do concorrente] e resuma suas atividades recentes" fornece informações atualizadas mantendo seus interesses de pesquisa privados.

A Conexão com o n8n: Automação de Workflows Encontra IA

Aqui é onde as coisas ficam realmente interessantes. Assim como mostramos como auto-hospedar o n8n para automação de workflows, essa configuração de IA local pode ser integrada a workflows automatizados.

Imagine acionar sua IA local através de workflows n8n:

  • Pesquisa Automatizada: Workflows diários que buscam notícias do setor e compilam resumos
  • Geração de Conteúdo: Criação de conteúdo acionada com base em eventos de calendário ou envios de formulários
  • Análise de Dados: Processamento automatizado de documentos enviados com insights de IA
  • Suporte ao Cliente: Processamento local de IA de tickets de suporte antes da revisão humana

A combinação de n8n auto-hospedado e IA local cria uma stack de automação poderosa onde seus dados nunca saem da sua infraestrutura. Você obtém a conveniência da automação com controle completo de privacidade.

Os Benefícios Reais

Privacidade que Realmente Importa

Suas conversas de negócios, discussões internas e pensamento estratégico ficam no seu hardware. Apenas suas consultas de busca na web saem (através do DuckDuckGo focado em privacidade), e essas não incluem contexto sobre por que você está pesquisando.

Sem Contas Mensais

Após a configuração inicial, não há custos contínuos de assinatura de IA. Você está usando seu próprio hardware para rodar tudo — similar a como auto-hospedar o n8n economiza de ferramentas SaaS caras de workflow.

Desempenho Confiável

Com configuração adequada, essa configuração é notavelmente estável. Chega de "o serviço de IA está fora do ar" ou "atingimos nosso limite mensal".

Personalizável e Extensível

Quer adicionar busca em banco de dados? Leitura de arquivos? Lógica de negócios personalizada? O ecossistema MCP torna a adição de novas capacidades simples, e a eventual integração com seus workflows n8n abre possibilidades infinitas de automação.

Problemas Comuns e Soluções

Erros "Command Not Found"

Certifique-se de que o diretório de binários Go está no seu PATH:

echo 'export PATH=$PATH:$(go env GOPATH)/bin' >> ~/.zshrc
source ~/.zshrc

Timeouts de Conexão

Geralmente significa que o servidor MCP não está iniciando corretamente. Teste manualmente:

cd /path/to/duckduckgo-mcp-server
uv run python src/duckduckgo_mcp_server/server.py

Modelo Não Responde a Chamadas de Ferramentas

Certifique-se de que está usando um modelo que suporta chamadas de função. Nem todos os modelos Ollama têm essa capacidade integrada.

Vale a Pena o Tempo de Configuração?

Se você regularmente usa IA para tarefas de negócios e se preocupa com privacidade, absolutamente. A configuração inicial leva algumas horas, mas você acaba com um assistente de IA capaz que:

  • Funciona offline (exceto para buscas na web)
  • Não envia seus dados para terceiros
  • Não custa nada para operar após a configuração
  • Pode ser estendido com capacidades adicionais conforme necessário
  • Integra-se com sua infraestrutura auto-hospedada existente

Para equipes que lidam com informações sensíveis ou operam em setores regulamentados, essa configuração fornece capacidades de IA sem as complicações de conformidade dos serviços na nuvem.

A combinação de processamento local com acesso seletivo à web alcança um equilíbrio prático entre capacidade e privacidade difícil de obter com soluções puramente na nuvem ou puramente locais. E quando você adiciona automação de workflows à mistura, está construindo uma base para automação de negócios verdadeiramente sofisticada que permanece sob seu controle.

Próximos Passos

Estamos trabalhando ativamente em integrações mais profundas entre configurações de IA local e plataformas de automação de workflows. Fique atento a futuros posts cobrindo:

  • Configurações Docker para setups combinados de n8n + Ollama
  • Servidores MCP personalizados para fontes de dados específicas de negócios
  • Templates de workflow que aproveitam IA local para processos de negócios comuns
  • Hardening de segurança para implantações em produção

O futuro da automação de negócios não é apenas sobre conectar serviços existentes — é sobre ter sistemas inteligentes que podem raciocinar, pesquisar e agir em seu nome mantendo tudo sob seu controle.


Se você encontrar problemas durante a configuração ou quiser estender esta configuração para seu caso de uso específico, ficaremos felizes em ajudar a resolver problemas através de nossos canais de suporte padrão.