tva
← Insights

Construire un assistant IA local avec recherche web : configuration MCP + Ollama

Comment combiner des modèles de langage locaux avec des capacités de recherche web tout en préservant la confidentialité de vos données

La mise en place d'outils IA pour un usage professionnel implique souvent de choisir entre praticabilité et confidentialité. Les solutions cloud sont faciles à utiliser mais envoient vos données ailleurs. Les solutions locales gardent tout sur votre machine mais peuvent être difficiles à configurer et à étendre avec des capacités supplémentaires.

Aujourd'hui, nous allons parcourir la construction d'une configuration IA pratique qui vous offre les deux : un modèle de langage local capable de rechercher sur le web en cas de besoin, tout en gardant vos conversations et le traitement sur votre propre matériel. Cette approche s'aligne parfaitement avec notre philosophie de solutions auto-hébergées — similaire à ce que nous avons montré avec la possibilité d'exécuter votre propre plateforme d'automatisation n8n pour un contrôle complet des workflows.

Les outils que nous utilisons

Commençons par comprendre le rôle de chaque composant :

Ollama : votre moteur IA local

Ollama est un logiciel qui exécute des grands modèles de langage sur votre propre ordinateur. Considérez-le comme un moyen d'avoir des capacités similaires à ChatGPT sans rien envoyer à OpenAI ou à d'autres fournisseurs cloud. Il gère le téléchargement des modèles, la gestion de la mémoire et les sert via une API simple.

L'avantage principal ? Tout reste local. Vos questions, les réponses de l'IA et tout le traitement se font entièrement sur votre machine. C'est important pour les discussions professionnelles sensibles, les informations propriétaires, ou simplement quand vous souhaitez éviter les frais d'abonnement IA mensuels.

Model Context Protocol (MCP) : ajouter des capacités

Les modèles de langage sont excellents pour la conversation et le raisonnement, mais ils ne peuvent pas naviguer sur le web, lire des fichiers ou interagir avec d'autres systèmes par eux-mêmes. Model Context Protocol (MCP) résout ce problème en fournissant une méthode standardisée pour donner aux modèles IA accès à des outils externes.

Considérez MCP comme un traducteur universel entre votre modèle IA et d'autres logiciels. Vous voulez que votre IA cherche sur le web ? Il existe un serveur MCP pour cela. Besoin de lire des bases de données ? Un autre serveur MCP. L'élégance est qu'une fois le protocole configuré, l'ajout de nouvelles capacités devient beaucoup plus simple.

mcphost : la connexion fiable

C'est ici que ça devient concret. Si MCP est le standard, vous avez besoin d'un logiciel pour connecter réellement votre modèle IA local aux serveurs MCP. mcphost fait exactement cela, et il le fait bien.

Nous avons d'abord essayé d'autres options (comme ollmcp), mais nous avons rencontré des délais d'expiration de connexion constants et des difficultés de configuration. mcphost utilise des fichiers de configuration explicites au lieu d'essayer de tout découvrir automatiquement, ce qui signifie qu'il fonctionne réellement de manière fiable en situation réelle.

Serveur MCP DuckDuckGo : recherche web privée

Pour les capacités de recherche web, nous utilisons un serveur MCP DuckDuckGo. Celui-ci permet à votre IA locale de rechercher sur le web via l'API de DuckDuckGo, qui ne suit pas les utilisateurs et ne stocke pas les historiques de recherche. C'est le complément parfait d'une configuration locale axée sur la confidentialité.

uv : gestion de l'environnement Python

uv est un gestionnaire de paquets Python rapide qui gère la création d'environnements isolés et la gestion des dépendances. Nous l'utilisons pour exécuter proprement le serveur MCP DuckDuckGo sans interférer avec d'autres projets Python sur votre système.

Comment tout fonctionne ensemble

Voici le flux lorsque vous demandez à votre IA locale de rechercher quelque chose :

  1. Vous tapez une question comme « Rechercher les développements récents en matière de réglementations e-commerce »
  2. mcphost reçoit votre message et le transmet à votre modèle Ollama local
  3. Le modèle reconnaît qu'il doit effectuer une recherche et appelle le serveur MCP DuckDuckGo via le protocole MCP
  4. Le serveur MCP lance la recherche sur DuckDuckGo et retourne les résultats
  5. Votre modèle local traite les résultats de recherche et vous fournit une réponse complète
  6. Tout reste sur votre machine à l'exception de la requête de recherche web elle-même

Mise en place : les étapes pratiques

Préparer les fondations

Tout d'abord, vous aurez besoin d'Ollama en cours d'exécution avec un modèle supportant l'appel d'outils. Nous recommandons qwen3:30b-a3b pour un bon équilibre entre capacité et rapidité :

# Install and start Ollama
ollama pull qwen3:30b-a3b
ollama serve

Installer mcphost

mcphost est écrit en Go, vous aurez donc besoin de ce langage au préalable :

# On macOS
brew install go

# On Ubuntu/Debian
sudo apt install golang-go

# Install mcphost
go install github.com/mark3labs/mcphost@latest

# Make sure it's in your PATH
export PATH=$PATH:$(go env GOPATH)/bin

Configurer la recherche DuckDuckGo

Clonez et configurez le serveur MCP DuckDuckGo :

git clone https://github.com/example/duckduckgo-mcp-server
cd duckduckgo-mcp-server
pip install uv  # if you don't have it
uv sync

Une configuration qui fonctionne vraiment

Créez un fichier de configuration à ~/.mcphost.json :

{
  "mcpServers": {
    "duckduckgo-search": {
      "command": "uv",
      "args": [
        "run",
        "--directory",
        "/path/to/your/duckduckgo-mcp-server",
        "python",
        "src/duckduckgo_mcp_server/server.py"
      ]
    }
  }
}

Remplacez /path/to/your/duckduckgo-mcp-server par le chemin réel où vous avez cloné le dépôt.

Utiliser votre nouvel assistant IA

Une fois que tout fonctionne, vous pouvez interagir avec votre IA de plusieurs manières :

Chat interactif

# Start a conversation
mcphost -m ollama:qwen3:30b-a3b

Cela vous donne une interface de chat où vous pouvez avoir des conversations continues et demander des recherches web au besoin.

Questions ponctuelles

# Get a quick answer
mcphost -m ollama:qwen3:30b-a3b -p "Search for information about EU data privacy laws"

Scripts automatisés

# Save results to a file
mcphost -m ollama:qwen3:30b-a3b -p "Search for competitors in the bowling equipment market" --quiet > research.txt

Ce que vous pouvez réellement faire avec cette configuration

Recherche et vérification des faits

Demandez à votre IA de rechercher des informations actuelles sur des sujets pertinents pour votre activité. Puisqu'elle utilise DuckDuckGo, vous obtenez des résultats web corrects sans le pistage.

Recherche de contenu

« Rechercher les tendances récentes en matière d'emballage durable » vous fournit des informations actuelles que le modèle peut ensuite analyser et résumer en s'appuyant sur son entraînement.

Veille concurrentielle

« Rechercher les actualités sur [nom du concurrent] et résumer ses activités récentes » fournit des informations à jour tout en gardant vos intérêts de recherche privés.

Résolution de problèmes techniques

« Rechercher des solutions aux problèmes de limitation de débit API » peut vous aider à trouver les meilleures pratiques actuelles et des exemples de code.

La connexion n8n : quand l'automatisation des workflows rencontre l'IA

C'est ici que les choses deviennent vraiment intéressantes. Tout comme nous vous avons montré comment auto-héberger n8n pour l'automatisation des workflows, cette configuration IA locale peut être intégrée dans des workflows automatisés.

Imaginez déclencher votre IA locale via des workflows n8n :

  • Recherche automatisée : des workflows quotidiens qui recherchent les actualités du secteur et compilent des résumés
  • Génération de contenu : création de contenu déclenchée par des événements de calendrier ou des soumissions de formulaires
  • Analyse de données : traitement automatisé de documents téléchargés avec des insights IA
  • Support client : traitement IA local des tickets de support avant examen humain

La combinaison de n8n auto-hébergé et d'IA locale crée une puissante stack d'automatisation où vos données ne quittent jamais votre infrastructure. Vous obtenez la commodité de l'automatisation avec un contrôle total de la confidentialité.

Possibilités d'intégration futures

Nous explorons plusieurs manières de connecter ces systèmes :

  • Points d'accès HTTP depuis votre IA locale que n8n peut appeler
  • Intégration par fichiers où n8n déclenche le traitement IA sur des documents
  • Workflows de base de données où les résultats de l'IA alimentent des processus métier automatisés
  • Automatisation des emails où votre IA locale aide à rédiger et personnaliser les réponses

Tout comme nos outils d'automatisation WordPress rationalisent la gestion de contenu, combiner l'IA locale avec les workflows n8n peut automatiser des processus métier complexes tout en maintenant la souveraineté des données.

Les véritables avantages

Une confidentialité qui compte vraiment

Vos conversations professionnelles, discussions internes et réflexions stratégiques restent sur votre matériel. Seules vos requêtes de recherche web sortent (via DuckDuckGo, axé sur la confidentialité), et celles-ci n'incluent pas de contexte expliquant pourquoi vous effectuez la recherche.

Aucune facture mensuelle

Après la configuration initiale, il n'y a aucun coût d'abonnement IA récurrent. Vous utilisez votre propre matériel pour tout exécuter — de la même manière que l'auto-hébergement de n8n vous évite les outils de workflow SaaS coûteux.

Performances fiables

Avec une configuration adéquate, cette installation est remarquablement stable. Plus de problèmes de type « le service IA est en panne » ou « nous avons atteint notre limite mensuelle ».

Personnalisable et extensible

Vous voulez ajouter la recherche en base de données ? La lecture de fichiers ? Une logique métier personnalisée ? L'écosystème MCP rend l'ajout de nouvelles capacités simple, et l'intégration future avec vos workflows n8n ouvre des possibilités d'automatisation infinies.

Problèmes courants et solutions

Erreurs « Command Not Found »

Assurez-vous que le répertoire des binaires Go est dans votre PATH :

echo 'export PATH=$PATH:$(go env GOPATH)/bin' >> ~/.zshrc
source ~/.zshrc

Délais d'expiration de connexion

Cela signifie généralement que le serveur MCP ne démarre pas correctement. Testez-le manuellement :

cd /path/to/duckduckgo-mcp-server
uv run python src/duckduckgo_mcp_server/server.py

Le modèle ne répond pas aux appels d'outils

Assurez-vous d'utiliser un modèle qui supporte l'appel de fonctions. Tous les modèles Ollama n'ont pas cette capacité intégrée.

Performances lentes

Envisagez d'utiliser un modèle plus petit (comme qwen3:7b) si votre matériel est limité, ou ajustez les paramètres de température pour des réponses plus rapides :

mcphost -m ollama:qwen3:7b --temperature 0.3 -p "your question"

Considérations d'infrastructure

Si vous exécutez déjà des services auto-hébergés comme n8n, vous pourriez envisager d'héberger cette solution sur la même infrastructure. La configuration que nous avons décrite pour n8n sur Hetzner Cloud peut facilement accueillir Ollama également — vous aurez simplement besoin de plus de RAM et de CPU pour les modèles de langage.

Une configuration typique pourrait inclure :

  • Hetzner CCX42 ou similaire pour les ressources nécessaires aux modèles plus importants
  • Conteneurisation Docker pour une gestion facile aux côtés de n8n
  • Proxy inverse Traefik pour un accès sécurisé (si vous souhaitez un accès à distance)
  • Stockage partagé pour les modèles et les données de workflow

Le temps de configuration en vaut-il la peine ?

Si vous utilisez régulièrement l'IA pour des tâches professionnelles et que vous vous souciez de la confidentialité, absolument. La configuration initiale prend quelques heures, mais vous obtenez un assistant IA performant qui :

  • Fonctionne hors ligne (sauf pour les recherches web)
  • N'envoie pas vos données à des tiers
  • Ne coûte rien à faire fonctionner après la configuration
  • Peut être étendu avec des capacités supplémentaires selon les besoins
  • S'intègre à votre infrastructure auto-hébergée existante

Pour les équipes traitant des informations sensibles ou opérant dans des secteurs réglementés, cette configuration offre des capacités IA sans les complications de conformité des services cloud.

La combinaison du traitement local avec un accès web sélectif offre un équilibre pratique entre capacité et confidentialité difficile à atteindre avec des solutions purement cloud ou purement locales. Et lorsque vous ajoutez l'automatisation des workflows, vous construisez les bases d'une automatisation métier véritablement sophistiquée qui reste sous votre contrôle.

Et ensuite ?

Nous travaillons activement sur des intégrations plus profondes entre les configurations IA locales et les plateformes d'automatisation de workflows. Restez attentif à nos prochains articles couvrant :

  • Configurations Docker pour des installations combinées n8n + Ollama
  • Serveurs MCP personnalisés pour des sources de données spécifiques à l'entreprise
  • Modèles de workflows exploitant l'IA locale pour les processus métier courants
  • Renforcement de la sécurité pour les déploiements en production

L'avenir de l'automatisation métier ne se résume pas à connecter des services existants — il s'agit d'avoir des systèmes intelligents capables de raisonner, rechercher et agir en votre nom tout en gardant le contrôle total.


Si vous rencontrez des problèmes lors de l'installation ou souhaitez étendre cette configuration pour votre cas d'utilisation spécifique, nous serons heureux de vous aider à résoudre les problèmes via nos canaux de support habituels.