Construcción de un asistente de IA local con búsqueda web: Configuración de MCP + Ollama
Cómo combinar modelos de lenguaje locales con capacidades de búsqueda web manteniendo la privacidad de sus datos
Configurar herramientas de IA para uso empresarial a menudo significa elegir entre conveniencia y privacidad. Las soluciones basadas en la nube son fáciles de usar pero envían sus datos a otro lugar. Las soluciones locales mantienen todo en su máquina pero pueden ser difíciles de configurar y ampliar con capacidades adicionales.
Hoy, le guiaremos a través de la construcción de una configuración práctica de IA que le da ambas cosas: un modelo de lenguaje local que puede buscar en la web cuando sea necesario, todo mientras mantiene sus conversaciones y procesamiento en su propio hardware. Este enfoque se alinea perfectamente con nuestra filosofía de soluciones auto-alojadas, similar a cómo hemos mostrado que puede ejecutar su propia plataforma de automatización n8n para un control completo de flujos de trabajo.
Las herramientas que estamos usando
Comencemos por entender qué hace cada pieza:
Ollama: Su motor de IA local
Ollama es un software que ejecuta modelos de lenguaje grandes en su propia computadora. Piénselo como una forma de tener capacidades similares a ChatGPT sin enviar nada a OpenAI u otros proveedores en la nube. Maneja la descarga de modelos, la gestión de memoria y los sirve a través de una API simple.
¿La ventaja clave? Todo permanece local. Sus preguntas, las respuestas de la IA y cualquier procesamiento ocurren enteramente en su máquina. Esto importa para discusiones comerciales sensibles, información propietaria o simplemente cuando quiere evitar tarifas mensuales de suscripción de IA.
Model Context Protocol (MCP): Añadiendo capacidades
Los modelos de lenguaje son excelentes para conversación y razonamiento, pero no pueden navegar por la web, leer archivos o interactuar con otros sistemas por sí mismos. Model Context Protocol (MCP) resuelve esto proporcionando una forma estandarizada de dar a los modelos de IA acceso a herramientas externas.
Piense en MCP como un traductor universal entre su modelo de IA y otro software. ¿Quiere que su IA busque en la web? Hay un servidor MCP para eso. ¿Necesita que lea bases de datos? Otro servidor MCP. La belleza es que una vez que configura el protocolo, agregar nuevas capacidades se vuelve mucho más simple.
mcphost: La conexión fiable
Aquí es donde se vuelve práctico. Mientras MCP es el estándar, necesita software para conectar realmente su modelo de IA local a los servidores MCP. mcphost hace exactamente esto, y lo hace bien.
Probamos otras opciones primero (como ollmcp), pero nos encontramos con constantes tiempos de espera agotados y dolores de cabeza de configuración. mcphost usa archivos de configuración explícitos en lugar de intentar auto-descubrir todo, lo que significa que realmente funciona de forma fiable en escenarios del mundo real.
Servidor MCP de DuckDuckGo: Búsqueda web privada
Para capacidades de búsqueda web, estamos usando un servidor MCP de DuckDuckGo. Esto permite que su IA local busque en la web a través de la API de DuckDuckGo, que no rastrea a los usuarios ni almacena historiales de búsqueda. Es el complemento perfecto para una configuración local centrada en la privacidad.
uv: Gestión de entorno Python
uv es un gestor de paquetes Python rápido que maneja la creación de entornos aislados y la gestión de dependencias. Lo usamos para ejecutar el servidor MCP de DuckDuckGo limpiamente sin interferir con otros proyectos Python en su sistema.
Cómo funciona todo junto
Este es el flujo cuando le pide a su IA local que busque algo:
- Escribe una pregunta como "Buscar desarrollos recientes en regulaciones de comercio electrónico"
- mcphost recibe su mensaje y lo reenvía a su modelo local de Ollama
- El modelo reconoce que necesita buscar y llama al servidor MCP de DuckDuckGo a través del protocolo MCP
- El servidor MCP busca en DuckDuckGo y devuelve resultados
- Su modelo local procesa los resultados de búsqueda y le da una respuesta integral
- Todo permanece en su máquina excepto la consulta de búsqueda web real
Configuración: Los pasos prácticos
Preparando la base
Primero, necesitará Ollama ejecutándose con un modelo que soporte llamadas a herramientas. Recomendamos qwen3:30b-a3b para un buen equilibrio de capacidad y velocidad:
# Install and start Ollama
ollama pull qwen3:30b-a3b
ollama serve
Instalación de mcphost
mcphost está escrito en Go, así que necesitará eso primero:
# On macOS
brew install go
# On Ubuntu/Debian
sudo apt install golang-go
# Install mcphost
go install github.com/mark3labs/mcphost@latest
# Make sure it's in your PATH
export PATH=$PATH:$(go env GOPATH)/bin
Configuración de la búsqueda DuckDuckGo
Clone y configure el servidor MCP de DuckDuckGo:
git clone https://github.com/example/duckduckgo-mcp-server
cd duckduckgo-mcp-server
pip install uv # if you don't have it
uv sync
Configuración que realmente funciona
Cree un archivo de configuración en ~/.mcphost.json:
{
"mcpServers": {
"duckduckgo-search": {
"command": "uv",
"args": [
"run",
"--directory",
"/path/to/your/duckduckgo-mcp-server",
"python",
"src/duckduckgo_mcp_server/server.py"
]
}
}
}
Reemplace /path/to/your/duckduckgo-mcp-server con la ruta real donde clonó el repositorio.
Usando su nuevo asistente de IA
Una vez que todo esté ejecutándose, puede interactuar con su IA de varias maneras:
Chat interactivo
# Start a conversation
mcphost -m ollama:qwen3:30b-a3b
Esto le da una interfaz de chat donde puede tener conversaciones continuas y pedir búsquedas web cuando sea necesario.
Preguntas puntuales
# Get a quick answer
mcphost -m ollama:qwen3:30b-a3b -p "Search for information about EU data privacy laws"
Scripts automatizados
# Save results to a file
mcphost -m ollama:qwen3:30b-a3b -p "Search for competitors in the bowling equipment market" --quiet > research.txt
Lo que realmente puede hacer con esto
Investigación y verificación de hechos
Pida a su IA que busque información actualizada sobre temas relevantes para su negocio. Como usa DuckDuckGo, obtiene resultados web decentes sin el rastreo.
Investigación de contenido
"Buscar tendencias recientes en embalaje sostenible" le da información actualizada que el modelo puede luego analizar y resumir basado en su entrenamiento.
Inteligencia competitiva
"Buscar noticias sobre [nombre del competidor] y resumir sus actividades recientes" proporciona información actualizada mientras mantiene privados sus intereses de investigación.
Resolución de problemas técnicos
"Buscar soluciones para problemas de limitación de tasa de API" puede ayudarle a encontrar mejores prácticas actuales y ejemplos de código.
La conexión con n8n: La automatización de flujos de trabajo se encuentra con la IA
Aquí es donde las cosas se ponen realmente interesantes. Así como le hemos mostrado cómo auto-alojar n8n para automatización de flujos de trabajo, esta configuración de IA local puede integrarse en flujos de trabajo automatizados.
Imagine activar su IA local a través de flujos de trabajo de n8n:
- Investigación automatizada: Flujos de trabajo diarios que buscan noticias de la industria y compilan resúmenes
- Generación de contenido: Creación de contenido activada basada en eventos de calendario o envíos de formularios
- Análisis de datos: Procesamiento automatizado de documentos cargados con insights de IA
- Soporte al cliente: Procesamiento local de IA de tickets de soporte antes de la revisión humana
La combinación de n8n auto-alojado e IA local crea un poderoso stack de automatización donde sus datos nunca abandonan su infraestructura. Obtiene la conveniencia de la automatización con control completo de privacidad.
Posibilidades de integración futura
Estamos explorando varias formas de conectar estos sistemas:
- Endpoints HTTP de su IA local que n8n puede llamar
- Integración basada en archivos donde n8n activa el procesamiento de IA en documentos
- Flujos de trabajo de base de datos donde los resultados de IA alimentan procesos de negocio automatizados
- Automatización de correo electrónico donde su IA local ayuda a redactar y personalizar respuestas
Al igual que nuestras herramientas de automatización para WordPress simplifican la gestión de contenido, combinar IA local con flujos de trabajo de n8n puede automatizar procesos de negocio complejos manteniendo la soberanía de datos.
Los beneficios reales
Privacidad que realmente importa
Sus conversaciones de negocio, discusiones internas y pensamiento estratégico permanecen en su hardware. Solo sus consultas de búsqueda web salen (a través del centrado en privacidad DuckDuckGo), y esas no incluyen contexto sobre por qué está buscando.
Sin facturas mensuales
Después de la configuración inicial, no hay costos continuos de suscripción de IA. Está usando su propio hardware para ejecutar todo, similar a cómo auto-alojar n8n le ahorra costosas herramientas de flujo de trabajo SaaS.
Rendimiento fiable
Con la configuración adecuada, esta instalación es notablemente estable. No más problemas de "el servicio de IA está caído" o "hemos alcanzado nuestro límite mensual".
Personalizable y extensible
¿Quiere agregar búsqueda de base de datos? ¿Lectura de archivos? ¿Lógica de negocio personalizada? El ecosistema MCP hace que agregar nuevas capacidades sea sencillo, y la eventual integración con sus flujos de trabajo de n8n abre posibilidades de automatización infinitas.
Problemas comunes y soluciones
Errores "Command Not Found"
Asegúrese de que el directorio de binarios de Go esté en su PATH:
echo 'export PATH=$PATH:$(go env GOPATH)/bin' >> ~/.zshrc
source ~/.zshrc
Tiempos de espera de conexión
Generalmente significa que el servidor MCP no está iniciándose correctamente. Pruébelo manualmente:
cd /path/to/duckduckgo-mcp-server
uv run python src/duckduckgo_mcp_server/server.py
El modelo no responde a llamadas de herramientas
Asegúrese de estar usando un modelo que soporte llamadas a funciones. No todos los modelos de Ollama tienen esta capacidad incorporada.
Rendimiento lento
Considere usar un modelo más pequeño (como qwen3:7b) si su hardware es limitado, o ajuste la configuración de temperatura para respuestas más rápidas:
mcphost -m ollama:qwen3:7b --temperature 0.3 -p "your question"
Consideraciones de infraestructura
Si ya está ejecutando servicios auto-alojados como n8n, podría considerar alojar esto en la misma infraestructura. La configuración que describimos para n8n en Hetzner Cloud puede acomodar fácilmente Ollama también; solo necesitará más RAM y CPU para los modelos de lenguaje.
Una configuración típica podría incluir:
- Hetzner CCX42 o similar para los recursos necesarios por modelos más grandes
- Contenedorización Docker para gestión fácil junto a n8n
- Proxy inverso Traefik para acceso seguro (si desea acceso remoto)
- Almacenamiento compartido para modelos y datos de flujos de trabajo
¿Vale la pena el tiempo de configuración?
Si usa IA regularmente para tareas de negocio y le importa la privacidad, absolutamente. La configuración inicial toma unas pocas horas, pero termina con un asistente de IA capaz que:
- Funciona sin conexión (excepto para búsquedas web)
- No envía sus datos a terceros
- No cuesta nada operar después de la configuración
- Puede extenderse con capacidades adicionales según sea necesario
- Se integra con su infraestructura auto-alojada existente
Para equipos que manejan información sensible u operan en industrias reguladas, esta configuración proporciona capacidades de IA sin los dolores de cabeza de cumplimiento de los servicios en la nube.
La combinación de procesamiento local con acceso web selectivo logra un equilibrio práctico entre capacidad y privacidad que es difícil de lograr con soluciones puramente en la nube o puramente locales. Y cuando agrega la automatización de flujos de trabajo a la mezcla, está construyendo una base para una automatización de negocio verdaderamente sofisticada que permanece bajo su control.
Próximos pasos
Estamos trabajando activamente en integraciones más profundas entre configuraciones de IA local y plataformas de automatización de flujos de trabajo. Esté atento a futuras publicaciones que cubran:
- Configuraciones Docker para configuraciones combinadas de n8n + Ollama
- Servidores MCP personalizados para fuentes de datos específicas del negocio
- Plantillas de flujos de trabajo que aprovechan la IA local para procesos de negocio comunes
- Endurecimiento de seguridad para despliegues de producción
El futuro de la automatización de negocios no se trata solo de conectar servicios existentes; se trata de tener sistemas inteligentes que puedan razonar, investigar y actuar en su nombre mientras mantienen todo bajo su control.
Si encuentra problemas durante la configuración o desea extender esta configuración para su caso de uso específico, estaremos encantados de ayudar a resolver problemas a través de nuestros canales de soporte estándar.