การสร้าง AI Assistant ในเครื่องพร้อมการค้นหาเว็บ: การตั้งค่า MCP + Ollama
วิธีรวม language model ในเครื่องกับความสามารถการค้นหาเว็บในขณะที่รักษาความเป็นส่วนตัวของข้อมูล
การตั้งค่าเครื่องมือ AI สำหรับใช้ในธุรกิจมักหมายถึงการเลือกระหว่างความสะดวกสบายและความเป็นส่วนตัว โซลูชันบนคลาวด์ใช้งานง่ายแต่ส่งข้อมูลของคุณไปที่อื่น โซลูชันในเครื่องเก็บทุกอย่างไว้ในเครื่องของคุณแต่อาจยุ่งยากในการตั้งค่าและขยายความสามารถเพิ่มเติม
วันนี้ เราจะอธิบายขั้นตอนการสร้างการตั้งค่า AI เชิงปฏิบัติที่ให้ทั้งสองอย่าง: language model ในเครื่องที่สามารถค้นหาเว็บได้เมื่อต้องการ ทั้งหมดนี้ในขณะที่รักษาการสนทนาและการประมวลผลไว้บนฮาร์ดแวร์ของคุณเอง แนวทางนี้สอดคล้องอย่างสมบูรณ์แบบกับปรัชญาโซลูชันที่โฮสต์ด้วยตนเองของเรา คล้ายกับที่เราแสดงให้เห็นว่าคุณสามารถ รันแพลตฟอร์มระบบอัตโนมัติ n8n ของคุณเอง เพื่อการควบคุมเวิร์กโฟลว์อย่างสมบูรณ์
เครื่องมือที่เราใช้
เริ่มต้นด้วยการทำความเข้าใจว่าแต่ละส่วนทำหน้าที่อะไร:
Ollama: AI Engine ในเครื่องของคุณ
Ollama คือซอฟต์แวร์ที่รัน large language model บนคอมพิวเตอร์ของคุณเอง คิดว่ามันเป็นวิธีที่จะมีความสามารถคล้าย ChatGPT โดยไม่ต้องส่งสิ่งใดไปยัง OpenAI หรือผู้ให้บริการคลาวด์อื่นๆ มันจัดการการดาวน์โหลดโมเดล การจัดการหน่วยความจำ และให้บริการผ่าน API ที่เรียบง่าย
ข้อได้เปรียบหลัก? ทุกอย่างอยู่ในเครื่อง คำถาม การตอบสนองของ AI และการประมวลผลใดๆ เกิดขึ้นทั้งหมดบนเครื่องของคุณ สิ่งนี้มีความสำคัญสำหรับการหารือทางธุรกิจที่ละเอียดอ่อน ข้อมูลที่เป็นกรรมสิทธิ์ หรือเพียงเมื่อคุณต้องการหลีกเลี่ยงค่าสมัครสมาชิก AI รายเดือน
Model Context Protocol (MCP): การเพิ่มความสามารถ
Language model ยอดเยี่ยมสำหรับการสนทนาและการให้เหตุผล แต่ไม่สามารถท่องเว็บ อ่านไฟล์ หรือโต้ตอบกับระบบอื่นได้ด้วยตัวเอง Model Context Protocol (MCP) แก้ปัญหานี้โดยมอบวิธีมาตรฐานในการให้โมเดล AI เข้าถึงเครื่องมือภายนอก
คิดว่า MCP เป็นนักแปลสากลระหว่างโมเดล AI ของคุณและซอฟต์แวร์อื่นๆ ต้องการให้ AI ค้นหาเว็บหรือไม่? มี MCP server สำหรับนั้น ต้องการให้มันอ่านฐานข้อมูลหรือไม่? มี MCP server อีกตัว ความสวยงามคือเมื่อคุณตั้งค่าโปรโตคอลแล้ว การเพิ่มความสามารถใหม่ๆ ก็ง่ายขึ้นมาก
mcphost: การเชื่อมต่อที่เชื่อถือได้
ตรงนี้เป็นเรื่องที่เป็นปฏิบัติ แม้ MCP จะเป็นมาตรฐาน แต่คุณต้องการซอฟต์แวร์เพื่อเชื่อมต่อโมเดล AI ในเครื่องกับ MCP server จริงๆ mcphost ทำสิ่งนี้ได้อย่างแม่นยำ และทำได้ดี
เราลองตัวเลือกอื่นก่อน (เช่น ollmcp) แต่พบกับการหมดเวลาของการเชื่อมต่ออย่างต่อเนื่องและปัญหาการกำหนดค่า mcphost ใช้ไฟล์การกำหนดค่าที่ชัดเจนแทนที่จะพยายามค้นหาทุกอย่างอัตโนมัติ ซึ่งหมายความว่ามันทำงานได้อย่างน่าเชื่อถือในสถานการณ์โลกจริง
DuckDuckGo MCP Server: การค้นหาเว็บแบบส่วนตัว
สำหรับความสามารถการค้นหาเว็บ เราใช้ DuckDuckGo MCP server ซึ่งให้ AI ในเครื่องของคุณค้นหาเว็บผ่าน API ของ DuckDuckGo ที่ไม่ติดตามผู้ใช้หรือเก็บประวัติการค้นหา มันเป็นส่วนเติมเต็มที่สมบูรณ์แบบสำหรับการตั้งค่าในเครื่องที่เน้นความเป็นส่วนตัว
uv: การจัดการสภาพแวดล้อม Python
uv คือตัวจัดการแพ็กเกจ Python ที่รวดเร็วซึ่งจัดการการสร้างสภาพแวดล้อมที่แยกและการจัดการ dependency เราใช้มันเพื่อรัน DuckDuckGo MCP server อย่างสะอาดโดยไม่รบกวนโปรเจกต์ Python อื่นๆ บนระบบของคุณ
ทุกอย่างทำงานร่วมกันอย่างไร
นี่คือกระแสงานเมื่อคุณขอให้ AI ในเครื่องค้นหาบางสิ่ง:
- คุณพิมพ์คำถามเช่น "ค้นหาพัฒนาการล่าสุดด้านกฎระเบียบอีคอมเมิร์ซ"
- mcphost รับข้อความของคุณและส่งต่อไปยังโมเดล Ollama ในเครื่องของคุณ
- โมเดลรู้ว่าจำเป็นต้องค้นหาและเรียกใช้ DuckDuckGo MCP server ผ่านโปรโตคอล MCP
- MCP server ค้นหา DuckDuckGo และส่งคืนผลลัพธ์
- โมเดลในเครื่องของคุณประมวลผลผลการค้นหาและให้คำตอบที่ครอบคลุม
- ทุกอย่างอยู่บนเครื่องของคุณยกเว้นการค้นหาเว็บจริงเท่านั้น
การตั้งค่านี้: ขั้นตอนเชิงปฏิบัติ
การเตรียมรากฐาน
ก่อนอื่น คุณจะต้องมี Ollama รันพร้อมโมเดลที่รองรับ tool calling เราแนะนำ qwen3:30b-a3b สำหรับความสมดุลที่ดีระหว่างความสามารถและความเร็ว:
# Install and start Ollama
ollama pull qwen3:30b-a3b
ollama serve
การติดตั้ง mcphost
mcphost เขียนด้วย Go ดังนั้นคุณต้องมีมันก่อน:
# On macOS
brew install go
# On Ubuntu/Debian
sudo apt install golang-go
# Install mcphost
go install github.com/mark3labs/mcphost@latest
# Make sure it's in your PATH
export PATH=$PATH:$(go env GOPATH)/bin
การตั้งค่าการค้นหา DuckDuckGo
โคลนและตั้งค่า DuckDuckGo MCP server:
git clone https://github.com/example/duckduckgo-mcp-server
cd duckduckgo-mcp-server
pip install uv # if you don't have it
uv sync
การกำหนดค่าที่ใช้ได้จริง
สร้างไฟล์การกำหนดค่าที่ ~/.mcphost.json:
{
"mcpServers": {
"duckduckgo-search": {
"command": "uv",
"args": [
"run",
"--directory",
"/path/to/your/duckduckgo-mcp-server",
"python",
"src/duckduckgo_mcp_server/server.py"
]
}
}
}
แทนที่ /path/to/your/duckduckgo-mcp-server ด้วยเส้นทางจริงที่คุณโคลน repository
การใช้งาน AI Assistant ใหม่ของคุณ
เมื่อทุกอย่างทำงานได้แล้ว คุณสามารถโต้ตอบกับ AI ของคุณได้หลายวิธี:
การสนทนาแบบโต้ตอบ
# Start a conversation
mcphost -m ollama:qwen3:30b-a3b
ซึ่งให้อินเทอร์เฟซการสนทนาที่คุณสามารถมีการสนทนาต่อเนื่องและขอการค้นหาเว็บได้เมื่อต้องการ
คำถามครั้งเดียว
# Get a quick answer
mcphost -m ollama:qwen3:30b-a3b -p "Search for information about EU data privacy laws"
สคริปต์อัตโนมัติ
# Save results to a file
mcphost -m ollama:qwen3:30b-a3b -p "Search for competitors in the bowling equipment market" --quiet > research.txt
สิ่งที่คุณสามารถทำได้จริงกับสิ่งนี้
การวิจัยและการตรวจสอบข้อเท็จจริง
ขอให้ AI ของคุณค้นหาข้อมูลปัจจุบันในหัวข้อที่เกี่ยวข้องกับธุรกิจของคุณ เนื่องจากใช้ DuckDuckGo คุณจึงได้ผลการค้นหาเว็บที่ดีโดยไม่มีการติดตาม
การวิจัยเนื้อหา
"ค้นหาแนวโน้มล่าสุดในบรรจุภัณฑ์ที่ยั่งยืน" ให้ข้อมูลปัจจุบันที่โมเดลสามารถวิเคราะห์และสรุปตามการฝึกอบรมของมัน
ข้อมูลข่าวกรองทางการแข่งขัน
"ค้นหาข่าวเกี่ยวกับ [ชื่อคู่แข่ง] และสรุปกิจกรรมล่าสุดของพวกเขา" ให้ข้อมูลที่ทันสมัยในขณะที่รักษาความสนใจในการวิจัยของคุณให้เป็นส่วนตัว
การแก้ปัญหาทางเทคนิค
"ค้นหาโซลูชันสำหรับปัญหา API rate limiting" สามารถช่วยคุณค้นหาแนวปฏิบัติที่ดีที่สุดและตัวอย่างโค้ดในปัจจุบัน
การเชื่อมต่อกับ n8n: ระบบอัตโนมัติของเวิร์กโฟลว์พบกับ AI
ตรงนี้เป็นจุดที่น่าสนใจอย่างแท้จริง เช่นเดียวกับที่เราแสดงให้เห็นว่า โฮสต์ n8n สำหรับระบบอัตโนมัติของเวิร์กโฟลว์ด้วยตนเองอย่างไร การตั้งค่า AI ในเครื่องนี้สามารถรวมเข้ากับเวิร์กโฟลว์อัตโนมัติได้
ลองนึกภาพการทริกเกอร์ AI ในเครื่องของคุณผ่านเวิร์กโฟลว์ n8n:
- การวิจัยอัตโนมัติ: เวิร์กโฟลว์รายวันที่ค้นหาข่าวอุตสาหกรรมและรวบรวมบทสรุป
- การสร้างเนื้อหา: การสร้างเนื้อหาที่ถูกทริกเกอร์ตามกิจกรรมปฏิทินหรือการส่งแบบฟอร์ม
- การวิเคราะห์ข้อมูล: การประมวลผลอัตโนมัติของเอกสารที่อัปโหลดพร้อมข้อมูลเชิงลึกจาก AI
- การสนับสนุนลูกค้า: การประมวลผล AI ในเครื่องสำหรับตั๋วสนับสนุนก่อนการตรวจสอบโดยมนุษย์
การผสมผสานของ n8n ที่โฮสต์ด้วยตนเองและ AI ในเครื่องสร้างสแต็กระบบอัตโนมัติที่ทรงพลังซึ่งข้อมูลของคุณไม่เคยออกจากโครงสร้างพื้นฐานของคุณ คุณได้รับความสะดวกของระบบอัตโนมัติพร้อมการควบคุมความเป็นส่วนตัวอย่างสมบูรณ์
ความเป็นไปได้ในการบูรณาการในอนาคต
เรากำลังสำรวจหลายวิธีในการเชื่อมต่อระบบเหล่านี้:
- HTTP endpoints จาก AI ในเครื่องที่ n8n สามารถเรียกใช้
- การบูรณาการผ่านไฟล์ ที่ n8n ทริกเกอร์การประมวลผล AI บนเอกสาร
- เวิร์กโฟลว์ฐานข้อมูล ที่ผลลัพธ์ AI ป้อนเข้าสู่กระบวนการทางธุรกิจอัตโนมัติ
- ระบบอัตโนมัติของอีเมล ที่ AI ในเครื่องของคุณช่วยร่างและปรับแต่งการตอบกลับ
เช่นเดียวกับ เครื่องมือระบบอัตโนมัติ WordPress ของเรา ที่ปรับปรุงการจัดการเนื้อหา การรวม AI ในเครื่องกับเวิร์กโฟลว์ n8n สามารถทำให้กระบวนการทางธุรกิจที่ซับซ้อนเป็นอัตโนมัติในขณะที่รักษาอธิปไตยของข้อมูล
ประโยชน์ที่แท้จริง
ความเป็นส่วนตัวที่มีความหมายจริงๆ
การสนทนาทางธุรกิจ การอภิปรายภายใน และการคิดเชิงกลยุทธ์ของคุณอยู่บนฮาร์ดแวร์ของคุณ มีเพียงคำค้นหาเว็บของคุณที่ออกไป (ผ่าน DuckDuckGo ที่เน้นความเป็นส่วนตัว) และคำเหล่านั้นไม่รวมบริบทเกี่ยวกับเหตุใดคุณจึงค้นหา
ไม่มีค่าบิลรายเดือน
หลังจากการตั้งค่าเริ่มต้น ไม่มีค่าสมัครสมาชิก AI ต่อเนื่อง คุณใช้ฮาร์ดแวร์ของตัวเองในการรันทุกอย่าง คล้ายกับที่การโฮสต์ n8n ด้วยตนเองช่วยคุณประหยัดจากเครื่องมือเวิร์กโฟลว์ SaaS ที่มีราคาแพง
ประสิทธิภาพที่เชื่อถือได้
ด้วยการกำหนดค่าที่เหมาะสม การตั้งค่านี้มีความเสถียรอย่างน่าทึ่ง ไม่มีปัญหา "บริการ AI หยุดทำงาน" หรือ "เราถึงขีดจำกัดรายเดือนแล้ว" อีกต่อไป
ปรับแต่งและขยายได้
ต้องการเพิ่มการค้นหาฐานข้อมูล? การอ่านไฟล์? ตรรกะธุรกิจแบบกำหนดเอง? ระบบนิเวศ MCP ทำให้การเพิ่มความสามารถใหม่ๆ เป็นเรื่องง่าย และการบูรณาการในที่สุดกับเวิร์กโฟลว์ n8n ของคุณเปิดความเป็นไปได้ในการทำงานอัตโนมัติอย่างไม่สิ้นสุด
ปัญหาที่พบบ่อยและวิธีแก้ไข
ข้อผิดพลาด "Command Not Found"
ตรวจสอบให้แน่ใจว่าไดเรกทอรีไบนารี Go อยู่ใน PATH ของคุณ:
echo 'export PATH=$PATH:$(go env GOPATH)/bin' >> ~/.zshrc
source ~/.zshrc
การหมดเวลาการเชื่อมต่อ
โดยปกติหมายความว่า MCP server ไม่ได้เริ่มต้นอย่างถูกต้อง ทดสอบด้วยตนเอง:
cd /path/to/duckduckgo-mcp-server
uv run python src/duckduckgo_mcp_server/server.py
โมเดลไม่ตอบสนองต่อการเรียกใช้เครื่องมือ
ตรวจสอบให้แน่ใจว่าคุณใช้โมเดลที่รองรับ function calling โมเดล Ollama ไม่ใช่ทุกรุ่นที่มีความสามารถนี้ในตัว
ประสิทธิภาพช้า
พิจารณาใช้โมเดลขนาดเล็กกว่า (เช่น qwen3:7b) หากฮาร์ดแวร์ของคุณมีข้อจำกัด หรือปรับแต่งการตั้งค่า temperature เพื่อการตอบสนองที่เร็วขึ้น:
mcphost -m ollama:qwen3:7b --temperature 0.3 -p "your question"
ข้อพิจารณาด้านโครงสร้างพื้นฐาน
หากคุณกำลังรันบริการที่โฮสต์ด้วยตนเองอยู่แล้วอย่าง n8n คุณอาจต้องการพิจารณาการโฮสต์บนโครงสร้างพื้นฐานเดียวกัน การตั้งค่าที่เราอธิบายสำหรับ n8n บน Hetzner Cloud สามารถรองรับ Ollama ได้อย่างง่ายดายเช่นกัน คุณเพียงแค่ต้องการ RAM และ CPU มากขึ้นสำหรับ language model
การตั้งค่าทั่วไปอาจรวมถึง:
- Hetzner CCX42 หรือที่คล้ายกันสำหรับทรัพยากรที่จำเป็นสำหรับโมเดลขนาดใหญ่
- การจัดคอนเทนเนอร์ด้วย Docker เพื่อการจัดการที่ง่ายควบคู่กับ n8n
- Traefik reverse proxy สำหรับการเข้าถึงที่ปลอดภัย (หากคุณต้องการการเข้าถึงจากระยะไกล)
- พื้นที่จัดเก็บที่ใช้ร่วมกัน สำหรับโมเดลและข้อมูลเวิร์กโฟลว์
คุ้มค่ากับเวลาในการตั้งค่าหรือไม่?
หากคุณใช้ AI เป็นประจำสำหรับงานธุรกิจและให้ความสำคัญกับความเป็นส่วนตัว แน่นอนที่สุด การตั้งค่าเริ่มต้นใช้เวลาไม่กี่ชั่วโมง แต่คุณได้รับ AI assistant ที่มีความสามารถที่:
- ทำงานแบบออฟไลน์ (ยกเว้นการค้นหาเว็บ)
- ไม่ส่งข้อมูลของคุณไปยังบุคคลที่สาม
- ไม่มีค่าใช้จ่ายในการดำเนินการหลังจากการตั้งค่า
- สามารถขยายด้วยความสามารถเพิ่มเติมได้ตามต้องการ
- รวมกับโครงสร้างพื้นฐานที่โฮสต์ด้วยตนเองที่มีอยู่
สำหรับทีมที่จัดการข้อมูลที่ละเอียดอ่อนหรือดำเนินงานในอุตสาหกรรมที่มีการควบคุม การตั้งค่านี้มอบความสามารถ AI โดยไม่มีปัญหาการปฏิบัติตามกฎระเบียบของบริการคลาวด์
การผสมผสานของการประมวลผลในเครื่องกับการเข้าถึงเว็บแบบเลือกสรรสร้างความสมดุลเชิงปฏิบัติระหว่างความสามารถและความเป็นส่วนตัวที่ยากจะบรรลุด้วยโซลูชันคลาวด์ล้วนๆ หรือโซลูชันในเครื่องล้วนๆ และเมื่อคุณเพิ่มระบบอัตโนมัติของเวิร์กโฟลว์เข้าไปในส่วนผสม คุณกำลังสร้างรากฐานสำหรับระบบอัตโนมัติทางธุรกิจที่ซับซ้อนอย่างแท้จริงซึ่งอยู่ภายใต้การควบคุมของคุณ
ก้าวต่อไปคืออะไร?
เรากำลังทำงานอย่างแข็งขันบนการบูรณาการที่ลึกขึ้นระหว่างการตั้งค่า AI ในเครื่องและแพลตฟอร์มระบบอัตโนมัติของเวิร์กโฟลว์ คอยติดตามโพสต์ในอนาคตที่ครอบคลุม:
- การกำหนดค่า Docker สำหรับการตั้งค่า n8n + Ollama รวมกัน
- MCP server แบบกำหนดเอง สำหรับแหล่งข้อมูลเฉพาะธุรกิจ
- เทมเพลตเวิร์กโฟลว์ ที่ใช้ AI ในเครื่องสำหรับกระบวนการทางธุรกิจทั่วไป
- การเสริมความปลอดภัย สำหรับการปรับใช้ในการผลิต
อนาคตของระบบอัตโนมัติทางธุรกิจไม่ใช่แค่เรื่องของการเชื่อมต่อบริการที่มีอยู่ มันเกี่ยวกับการมีระบบอัจฉริยะที่สามารถให้เหตุผล ทำการวิจัย และดำเนินการแทนคุณในขณะที่รักษาทุกอย่างไว้ภายใต้การควบคุมของคุณ
หากคุณพบปัญหาในระหว่างการตั้งค่าหรือต้องการขยายการกำหนดค่านี้สำหรับกรณีการใช้งานเฉพาะของคุณ เรายินดีช่วยแก้ไขปัญหาผ่านช่องทางสนับสนุนมาตรฐานของเรา