tva
← Insights

Einen lokalen KI-Assistenten mit Websuche erstellen: MCP + Ollama Setup

Wie man lokale Sprachmodelle mit Websuchfähigkeiten kombiniert und dabei die Daten privat hält

Das Einrichten von KI-Tools für den Geschäftseinsatz bedeutet oft, zwischen Komfort und Datenschutz zu wählen. Cloud-basierte Lösungen sind einfach zu nutzen, senden Ihre Daten aber anderswohin. Lokale Lösungen behalten alles auf Ihrem Rechner, können aber schwierig einzurichten und mit zusätzlichen Fähigkeiten zu erweitern sein.

Heute zeigen wir Schritt für Schritt den Aufbau eines praktischen KI-Setups, das Ihnen beides bietet: ein lokales Sprachmodell, das bei Bedarf das Web durchsuchen kann, während Ihre Gespräche und Verarbeitungen vollständig auf Ihrer eigenen Hardware bleiben. Dieser Ansatz passt perfekt zu unserer Philosophie selbst gehosteter Lösungen – ähnlich wie wir gezeigt haben, dass Sie Ihre eigene n8n-Automatisierungsplattform betreiben können, für vollständige Workflow-Kontrolle.

Die Tools, die wir verwenden

Beginnen wir damit zu verstehen, was jede Komponente tut:

Ollama: Ihre lokale KI-Engine

Ollama ist Software, die große Sprachmodelle auf Ihrem eigenen Computer ausführt. Stellen Sie es sich als eine Möglichkeit vor, ChatGPT-ähnliche Fähigkeiten zu haben, ohne etwas an OpenAI oder andere Cloud-Anbieter zu senden. Es verwaltet das Herunterladen von Modellen, die Speicherverwaltung und die Bereitstellung über eine einfache API.

Der entscheidende Vorteil? Alles bleibt lokal. Ihre Fragen, die Antworten der KI und jede Verarbeitung geschehen vollständig auf Ihrem Rechner. Das ist wichtig für sensible Geschäftsgespräche, proprietäre Informationen oder einfach wenn Sie monatliche KI-Abonnementgebühren vermeiden möchten.

Model Context Protocol (MCP): Fähigkeiten hinzufügen

Sprachmodelle sind hervorragend in Konversation und logischem Denken, können aber von sich aus nicht im Web browsen, Dateien lesen oder mit anderen Systemen interagieren. Model Context Protocol (MCP) löst dies, indem es eine standardisierte Möglichkeit bietet, KI-Modellen Zugang zu externen Tools zu geben.

Stellen Sie sich MCP als einen universellen Übersetzer zwischen Ihrem KI-Modell und anderer Software vor. Möchten Sie, dass Ihre KI das Web durchsucht? Dafür gibt es einen MCP-Server. Soll sie Datenbanken lesen? Ein weiterer MCP-Server. Das Schöne daran ist, dass das Hinzufügen neuer Fähigkeiten viel einfacher wird, sobald das Protokoll eingerichtet ist.

mcphost: Die zuverlässige Verbindung

Hier wird es praktisch. Während MCP der Standard ist, benötigen Sie Software, die Ihr lokales KI-Modell tatsächlich mit MCP-Servern verbindet. mcphost macht genau das, und zwar gut.

Wir haben zunächst andere Optionen ausprobiert (wie ollmcp), stießen aber auf ständige Verbindungs-Timeouts und Konfigurationsprobleme. mcphost verwendet explizite Konfigurationsdateien, anstatt alles automatisch zu erkennen, was bedeutet, dass es in realen Szenarien tatsächlich zuverlässig funktioniert.

DuckDuckGo MCP Server: Private Websuche

Für Websuchfähigkeiten verwenden wir einen DuckDuckGo MCP Server. Dieser ermöglicht Ihrer lokalen KI, über DuckDuckGos API im Web zu suchen, die keine Benutzer trackt und keine Suchverläufe speichert. Es ist die perfekte Ergänzung zu einem datenschutzorientierten lokalen Setup.

uv: Python-Umgebungsverwaltung

uv ist ein schneller Python-Paketmanager, der die Erstellung isolierter Umgebungen und die Verwaltung von Abhängigkeiten übernimmt. Wir verwenden es, um den DuckDuckGo MCP Server sauber auszuführen, ohne andere Python-Projekte auf Ihrem System zu beeinflussen.

Wie alles zusammenarbeitet

So läuft es ab, wenn Sie Ihre lokale KI bitten, etwas zu suchen:

  1. Sie geben eine Frage ein wie "Suche nach aktuellen Entwicklungen bei E-Commerce-Regulierungen"
  2. mcphost empfängt Ihre Nachricht und leitet sie an Ihr lokales Ollama-Modell weiter
  3. Das Modell erkennt, dass es suchen muss, und ruft den DuckDuckGo MCP Server über das MCP-Protokoll auf
  4. Der MCP-Server durchsucht DuckDuckGo und gibt Ergebnisse zurück
  5. Ihr lokales Modell verarbeitet die Suchergebnisse und gibt Ihnen eine umfassende Antwort
  6. Alles bleibt auf Ihrem Rechner, außer der eigentlichen Websuchanfrage

Einrichtung: Die praktischen Schritte

Das Fundament vorbereiten

Zunächst benötigen Sie Ollama mit einem Modell, das Tool-Calling unterstützt. Wir empfehlen qwen3:30b-a3b für eine gute Balance zwischen Leistung und Geschwindigkeit:

# Install and start Ollama
ollama pull qwen3:30b-a3b
ollama serve

mcphost installieren

mcphost ist in Go geschrieben, daher benötigen Sie zuerst Go:

# On macOS
brew install go

# On Ubuntu/Debian
sudo apt install golang-go

# Install mcphost
go install github.com/mark3labs/mcphost@latest

# Make sure it's in your PATH
export PATH=$PATH:$(go env GOPATH)/bin

DuckDuckGo-Suche einrichten

Klonen und richten Sie den DuckDuckGo MCP Server ein:

git clone https://github.com/example/duckduckgo-mcp-server
cd duckduckgo-mcp-server
pip install uv  # if you don't have it
uv sync

Konfiguration, die tatsächlich funktioniert

Erstellen Sie eine Konfigurationsdatei unter ~/.mcphost.json:

{
  "mcpServers": {
    "duckduckgo-search": {
      "command": "uv",
      "args": [
        "run",
        "--directory",
        "/path/to/your/duckduckgo-mcp-server",
        "python",
        "src/duckduckgo_mcp_server/server.py"
      ]
    }
  }
}

Ersetzen Sie /path/to/your/duckduckgo-mcp-server durch den tatsächlichen Pfad, in den Sie das Repository geklont haben.

Ihren neuen KI-Assistenten verwenden

Sobald alles läuft, können Sie auf verschiedene Weisen mit Ihrer KI interagieren:

Interaktiver Chat

# Start a conversation
mcphost -m ollama:qwen3:30b-a3b

Dies bietet Ihnen eine Chat-Oberfläche, in der Sie laufende Gespräche führen und bei Bedarf Websuchen anfordern können.

Einzelfragen

# Get a quick answer
mcphost -m ollama:qwen3:30b-a3b -p "Search for information about EU data privacy laws"

Automatisierte Skripte

# Save results to a file
mcphost -m ollama:qwen3:30b-a3b -p "Search for competitors in the bowling equipment market" --quiet > research.txt

Was Sie tatsächlich damit machen können

Recherche und Faktenprüfung

Bitten Sie Ihre KI, nach aktuellen Informationen zu geschäftsrelevanten Themen zu suchen. Da DuckDuckGo verwendet wird, erhalten Sie gute Webergebnisse ohne Tracking.

Content-Recherche

"Suche nach aktuellen Trends bei nachhaltigen Verpackungen" liefert Ihnen aktuelle Informationen, die das Modell dann basierend auf seinem Training analysieren und zusammenfassen kann.

Wettbewerbsbeobachtung

"Suche nach Neuigkeiten über [Mitbewerbername] und fasse deren aktuelle Aktivitäten zusammen" liefert aktuelle Informationen, während Ihre Rechercheinteressen privat bleiben.

Technische Problemlösung

"Suche nach Lösungen für API-Rate-Limiting-Probleme" kann Ihnen helfen, aktuelle Best Practices und Code-Beispiele zu finden.

Die n8n-Verbindung: Workflow-Automatisierung trifft KI

Hier wird es richtig interessant. So wie wir Ihnen gezeigt haben, wie Sie n8n für Workflow-Automatisierung selbst hosten, kann dieses lokale KI-Setup in automatisierte Workflows integriert werden.

Stellen Sie sich vor, Sie lösen Ihre lokale KI über n8n-Workflows aus:

  • Automatisierte Recherche: Tägliche Workflows, die nach Branchennachrichten suchen und Zusammenfassungen erstellen
  • Content-Generierung: Ausgelöste Content-Erstellung basierend auf Kalenderereignissen oder Formularübermittlungen
  • Datenanalyse: Automatisierte Verarbeitung hochgeladener Dokumente mit KI-Erkenntnissen
  • Kundensupport: Lokale KI-Verarbeitung von Support-Tickets vor der menschlichen Überprüfung

Die Kombination von selbst gehostetem n8n und lokaler KI schafft einen leistungsstarken Automatisierungsstack, bei dem Ihre Daten nie Ihre Infrastruktur verlassen. Sie erhalten den Komfort der Automatisierung mit vollständiger Datenschutzkontrolle.

Zukünftige Integrationsmöglichkeiten

Wir erkunden verschiedene Wege, diese Systeme zu verbinden:

  • HTTP-Endpunkte von Ihrer lokalen KI, die n8n aufrufen kann
  • Dateibasierte Integration, bei der n8n KI-Verarbeitung von Dokumenten auslöst
  • Datenbank-Workflows, bei denen KI-Ergebnisse in automatisierte Geschäftsprozesse einfließen
  • E-Mail-Automatisierung, bei der Ihre lokale KI beim Verfassen und Personalisieren von Antworten hilft

So wie unsere WordPress-Automatisierungstools das Content-Management optimieren, kann die Kombination von lokaler KI mit n8n-Workflows komplexe Geschäftsprozesse automatisieren und dabei die Datensouveränität wahren.

Die echten Vorteile

Datenschutz, der wirklich zählt

Ihre Geschäftsgespräche, internen Diskussionen und strategischen Überlegungen bleiben auf Ihrer Hardware. Nur Ihre Websuchanfragen gehen nach außen (über datenschutzorientiertes DuckDuckGo), und diese enthalten keinen Kontext darüber, warum Sie suchen.

Keine monatlichen Kosten

Nach der Ersteinrichtung fallen keine laufenden KI-Abonnementkosten an. Sie nutzen Ihre eigene Hardware für alles – ähnlich wie das Self-Hosting von n8n Sie vor teuren SaaS-Workflow-Tools bewahrt.

Zuverlässige Performance

Mit korrekter Konfiguration ist dieses Setup bemerkenswert stabil. Keine "der KI-Dienst ist ausgefallen"-Probleme oder "wir haben unser monatliches Limit erreicht" mehr.

Anpassbar und erweiterbar

Möchten Sie Datenbanksuche hinzufügen? Dateilesen? Benutzerdefinierte Geschäftslogik? Das MCP-Ökosystem macht das Hinzufügen neuer Fähigkeiten unkompliziert, und die Integration mit Ihren n8n-Workflows eröffnet endlose Automatisierungsmöglichkeiten.

Häufige Probleme und Lösungen

"Command Not Found"-Fehler

Stellen Sie sicher, dass Ihr Go-Binary-Verzeichnis in Ihrem PATH ist:

echo 'export PATH=$PATH:$(go env GOPATH)/bin' >> ~/.zshrc
source ~/.zshrc

Verbindungs-Timeouts

Bedeutet normalerweise, dass der MCP-Server nicht korrekt startet. Testen Sie ihn manuell:

cd /path/to/duckduckgo-mcp-server
uv run python src/duckduckgo_mcp_server/server.py

Modell reagiert nicht auf Tool-Aufrufe

Stellen Sie sicher, dass Sie ein Modell verwenden, das Function Calling unterstützt. Nicht alle Ollama-Modelle haben diese Fähigkeit integriert.

Langsame Performance

Erwägen Sie die Verwendung eines kleineren Modells (wie qwen3:7b), wenn Ihre Hardware begrenzt ist, oder passen Sie die Temperature-Einstellungen für schnellere Antworten an:

mcphost -m ollama:qwen3:7b --temperature 0.3 -p "your question"

Infrastruktur-Überlegungen

Wenn Sie bereits selbst gehostete Dienste wie n8n betreiben, möchten Sie möglicherweise erwägen, dies auf derselben Infrastruktur zu hosten. Das Setup, das wir für n8n auf Hetzner Cloud beschrieben haben, kann leicht auch Ollama aufnehmen – Sie benötigen nur mehr RAM und CPU für die Sprachmodelle.

Ein typisches Setup könnte umfassen:

  • Hetzner CCX42 oder ähnlich für die benötigten Ressourcen größerer Modelle
  • Docker-Containerisierung für einfache Verwaltung neben n8n
  • Traefik Reverse Proxy für sicheren Zugang (falls Sie Fernzugriff wünschen)
  • Gemeinsamer Speicher für Modelle und Workflow-Daten

Lohnt sich der Einrichtungsaufwand?

Wenn Sie regelmäßig KI für geschäftliche Aufgaben nutzen und Wert auf Datenschutz legen, absolut. Die Ersteinrichtung dauert einige Stunden, aber Sie erhalten einen leistungsfähigen KI-Assistenten, der:

  • Offline funktioniert (außer für Websuchen)
  • Ihre Daten nicht an Dritte sendet
  • Nach der Einrichtung keine Betriebskosten verursacht
  • Bei Bedarf mit zusätzlichen Fähigkeiten erweitert werden kann
  • Sich in Ihre bestehende selbst gehostete Infrastruktur integriert

Für Teams, die sensible Informationen verarbeiten oder in regulierten Branchen arbeiten, bietet dieses Setup KI-Fähigkeiten ohne die Compliance-Kopfschmerzen von Cloud-Diensten.

Die Kombination lokaler Verarbeitung mit selektivem Webzugang erreicht ein praktisches Gleichgewicht zwischen Leistungsfähigkeit und Datenschutz, das weder mit reinen Cloud- noch mit reinen Lokallösungen leicht zu erreichen ist. Und wenn Sie Workflow-Automatisierung hinzufügen, bauen Sie ein Fundament für wirklich ausgefeilte Geschäftsautomatisierung, die unter Ihrer Kontrolle bleibt.

Was kommt als Nächstes?

Wir arbeiten aktiv an tieferen Integrationen zwischen lokalen KI-Setups und Workflow-Automatisierungsplattformen. Halten Sie Ausschau nach zukünftigen Beiträgen über:

  • Docker-Konfigurationen für kombinierte n8n + Ollama Setups
  • Benutzerdefinierte MCP-Server für geschäftsspezifische Datenquellen
  • Workflow-Vorlagen, die lokale KI für häufige Geschäftsprozesse nutzen
  • Sicherheitshärtung für Produktions-Deployments

Die Zukunft der Geschäftsautomatisierung dreht sich nicht nur darum, bestehende Dienste zu verbinden – es geht darum, intelligente Systeme zu haben, die in Ihrem Auftrag denken, recherchieren und handeln können, während alles unter Ihrer Kontrolle bleibt.


Wenn Sie bei der Einrichtung auf Probleme stoßen oder diese Konfiguration für Ihren spezifischen Anwendungsfall erweitern möchten, helfen wir gerne bei der Fehlerbehebung über unsere Standard-Supportkanäle.