MCP
Model Context Protocol(模型上下文協(xié)議)
標簽:AI編程開發(fā) MCP工具箱 應用開發(fā) 網(wǎng)站開發(fā)AI應用開發(fā) anthropic MCP工具箱 應用開發(fā) 開源框架 網(wǎng)站開發(fā)MCP官網(wǎng)
MCP 全稱 Model Context Protocol(模型上下文協(xié)議),MCP 是由 Anthropic 公司于2024年11月提出并開源的一種開放標準協(xié)議,旨在解決大型語言模型(LLM)與外部數(shù)據(jù)源和工具之間的集成問題。MCP 核心目標是通過標準化接口,使 AI 系統(tǒng)能夠無縫訪問外部數(shù)據(jù)源、工具和服務,從而打破數(shù)據(jù)孤島,提升 AI 助手的實際操作能力。MCP 采用客戶端-服務器(client-server)架構(gòu),支持雙向通信,并允許動態(tài)發(fā)現(xiàn)和調(diào)用外部工具。
MCP:模型上下文協(xié)議簡介
模型上下文協(xié)議(MCP)是由 Anthropic 在2024年11月推出的一項開放標準,旨在簡化大型語言模型(LLM)與外部數(shù)據(jù)源及工具的集成。其核心目標是建立一套標準化的接口,從而使 AI 系統(tǒng)能夠順暢地訪問各類外部資源,打破數(shù)據(jù)孤島,提升 AI 助手的實際操作能力。MCP 采用客戶端-服務器架構(gòu),支持雙向通信,并允許動態(tài)發(fā)現(xiàn)和調(diào)用外部工具。可以把它看作是 AI 應用的通用適配器,就像 USB-C 之于物理設備。
MCP的獨特價值何在?
為何要選擇MCP?它能幫助你在 LLM 的基礎上構(gòu)建代理和復雜的工作流程。由于 LLM 常常需要與數(shù)據(jù)和工具集成,MCP 提供了以下優(yōu)勢:
- 越來越多的預構(gòu)建集成可供你的 LLM 直接使用。
- 在 LLM 提供商和供應商之間切換的靈活性。
- 保護基礎架構(gòu)內(nèi)數(shù)據(jù)的最佳實踐。
MCP的總體架構(gòu)是怎樣的?
MCP 的核心架構(gòu)遵循客戶端-服務器模式,其中主機應用程序可以連接到多個服務器。這一架構(gòu)主要由以下幾個部分組成:
- MCP Host(MCP主機): 諸如 Claude Desktop、集成開發(fā)環(huán)境(IDE)或 AI 工具等程序,需要通過 MCP 訪問數(shù)據(jù)。
- MCP Clients(MCP客戶端): 與服務器保持 1:1 連接的協(xié)議客戶端。
- MCP Servers(MCP服務器): 輕量級程序,每一個都通過標準化的模型上下文協(xié)議公開特定功能。
- Local Data Sources(本地數(shù)據(jù)源): MCP 服務器可以安全訪問的計算機文件、數(shù)據(jù)庫和服務。
- Remote Services(遠程服務): MCP 服務器可以通過互聯(lián)網(wǎng)(例如通過應用程序編程接口API)連接到的外部系統(tǒng)。
MCP的工作原理是什么?
MCP 通過一個簡易的系統(tǒng),在 AI 應用程序和數(shù)據(jù)之間搭建橋梁:
- MCP 服務器連接到你的數(shù)據(jù)源和工具,例如 Google Drive 或 Slack。
- MCP 客戶端由 AI 應用程序(例如 Claude Desktop)運行,以將它們連接到這些服務器。
- 在授予權(quán)限后,AI 應用程序會發(fā)現(xiàn)可用的 MCP 服務器。然后,AI 模型可以使用這些連接來讀取信息并采取行動。
這種模塊化系統(tǒng)意味著無需改變 AI 應用程序本身即可添加新功能,好比無需升級整個系統(tǒng)即可為計算機添加新配件。
如何使用MCP?
MCP 官方網(wǎng)站提供了詳盡的創(chuàng)建和使用指南,為不同開發(fā)者提供使用指導。你可以訪問 MCP 官網(wǎng)或 MCP 官方 Github 查看詳情。
MCP 官網(wǎng)地址:https://modelcontextprotocol.io/
MCP 官方 Github 開源代碼庫:https://github.com/modelcontextprotocol
MCP使用教程有哪些?
MCP 提供了針對不同用戶角色的使用教程:
- 服務器開發(fā)者: 學習如何構(gòu)建自己的服務器,以便在 Claude for Desktop 和其他客戶端中使用。教程地址:https://modelcontextprotocol.io/quickstart/server
- 客戶端開發(fā)者: 學習如何構(gòu)建可以與所有 MCP 服務器集成的客戶端。教程地址:https://modelcontextprotocol.io/quickstart/client
- Claude 桌面用戶: 學習如何開始使用 Claude for Desktop 中預構(gòu)建的服務器。教程地址:https://modelcontextprotocol.io/quickstart/user
- MCP 調(diào)試指南: 在開發(fā) MCP 服務器或?qū)⑵渑c應用程序集成時,有效的調(diào)試至關重要。教程地址:https://modelcontextprotocol.io/docs/tools/debugging
- MCP Inspector 使用教程: 學習如何使用 MCP Inspector 測試和調(diào)試模型上下文協(xié)議服務器。教程地址:https://modelcontextprotocol.io/docs/tools/inspector
MCP Servers 服務器有哪些示例?
以下是一些已經(jīng)應用的各種模型上下文協(xié)議 (MCP) 服務器,以展示該協(xié)議的功能和多功能性。這些服務器使大型語言模型 (LLM) 能夠安全地訪問工具和數(shù)據(jù)源。
- 數(shù)據(jù)和文件系統(tǒng):
- 文件系統(tǒng):具有可配置訪問控制的安全文件操作。
- PostgreSQL:具有模式檢查功能的只讀數(shù)據(jù)庫訪問。
- SQLite:數(shù)據(jù)庫交互和商業(yè)智能功能。
- Google Drive:Google Drive 的文件訪問和搜索功能。
- 開發(fā)工具:
- Git:讀取、搜索和操作 Git 存儲庫的工具。
- GitHub:存儲庫管理、文件操作和 GitHub API 集成。
- GitLab:GitLab API 集成,支持項目管理。
- Sentry:從 Sentry.io 檢索和分析問題。
- Web 和瀏覽器自動化:
- Brave Search:使用 Brave 的搜索 API 進行網(wǎng)絡和本地搜索。
- Fetch:針對 LLM 使用進行優(yōu)化的 Web 內(nèi)容獲取和轉(zhuǎn)換。
- Puppeteer:瀏覽器自動化和網(wǎng)頁抓取功能。
- 生產(chǎn)力和溝通:
- Slack:頻道管理和消息傳遞功能。
- Google 地圖:位置服務、路線和地點詳情。
- 記憶:基于知識圖譜的持久記憶系統(tǒng)。
- 人工智能和專用工具:
- EverArt:使用各種模型的 AI 圖像生成。
- 順序思維:通過思維序列動態(tài)解決問題。
- AWS KB 檢索:使用 Bedrock Agent Runtime 從 AWS 知識庫檢索。
更多 MCP Servers 示例請訪問官網(wǎng):https://modelcontextprotocol.io/examples
MCP Clients 客戶端有哪些示例?
下面是一些支持模型上下文協(xié)議 (MCP) 的應用程序。每個客戶端可能支持不同的 MCP 功能,從而允許與 MCP 服務器進行不同程度的集成。
客戶 | 資源 | 提示 | 工具 | 采樣 | 根 | 筆記 |
---|---|---|---|---|---|---|
5ire | ? | ? | ? | ? | ? | 支持工具。 |
Apify MCP 測試器 | ? | ? | ? | ? | ? | 支持工具 |
BeeAI框架 | ? | ? | ? | ? | ? | 支持代理工作流程中的工具。 |
克勞德·科德 | ? | ? | ? | ? | ? | 支持提示和工具 |
克勞德桌面應用程序 | ? | ? | ? | ? | ? | 支持工具、提示和資源。 |
克萊恩 | ? | ? | ? | ? | ? | 支持工具和資源。 |
繼續(xù) | ? | ? | ? | ? | ? | 支持工具、提示和資源。 |
副駕駛-MCP | ? | ? | ? | ? | ? | 支持工具和資源。 |
光標 | ? | ? | ? | ? | ? | 支持工具。 |
白日夢特工 | ? | ? | ? | ? | ? | 支持將服務器放入 Daydreams 代理 |
Emacs Mcp | ? | ? | ? | ? | ? | 支持 Emacs 中的工具。 |
快速劑 | ? | ? | ? | ? | ? | 完整的多模式 MCP 支持,具有端到端測試 |
根基特 | ?? | ? | ? | ? | ? | 支持資源列表和通過工具查找。 |
GenAIScript | ? | ? | ? | ? | ? | 支持工具。 |
鵝 | ? | ? | ? | ? | ? | 支持工具。 |
免費 | ? | ? | ? | ? | ? | 代理支持工具 |
mcp-代理 | ? | ? | ? | ?? | ? | 支持工具、服務器連接管理和代理工作流程。 |
Microsoft Copilot Studio | ? | ? | ? | ? | ? | 支持工具 |
OpenSumi | ? | ? | ? | ? | ? | 支持 OpenSumi 中的工具 |
房間 | ? | ? | ? | ? | ? | 支持 Ollama 的工具、提示和采樣。 |
羅奧代碼 | ? | ? | ? | ? | ? | 支持工具和資源。 |
源圖科迪 | ? | ? | ? | ? | ? | 通過 OpenCTX 支持資源 |
SpinAI | ? | ? | ? | ? | ? | 支持 Typescript AI Agents 工具 |
超級接口 | ? | ? | ? | ? | ? | 支持工具 |
TheiaAI/TheiaIDE | ? | ? | ? | ? | ? | 支持 Theia AI 中的代理工具以及 AI 驅(qū)動的 Theia IDE |
VS Code GitHub Copilot | ? | ? | ? | ? | ? | 支持動態(tài)工具/根發(fā)現(xiàn)、安全秘密配置和顯式工具提示 |
風帆沖浪編輯 | ? | ? | ? | ? | ? | 支持使用AI Flow的工具進行協(xié)作開發(fā)。 |
機智 | ? | ? | ? | ? | ? | 支持 Witsy 中的工具。 |
澤德 | ? | ? | ? | ? | ? | 提示以斜線命令形式出現(xiàn) |
更多 MCP Clients 示例請訪問官網(wǎng):https://modelcontextprotocol.io/clients
MCP 官方集成了哪些內(nèi)容?
這些 MCP 服務器由 Anthropic 公司為其平臺維護:
- Axiom: 使用自然語言查詢和分析日志、跟蹤和數(shù)據(jù)。
- Browserbase: 在云端自動化瀏覽器交互。
- Cloudflare: 在 Cloudflare 開發(fā)者平臺上部署和管理資源。
- E2B: 在安全的云沙箱中執(zhí)行代碼。
- Neon: 與 Neon 無服務器 Postgres 平臺交互。
- Obsidian Markdown Notes: 閱讀和搜索 Obsidian 庫中的 Markdown 筆記。
- Qdrant: 使用 Qdrant 矢量搜索引擎實現(xiàn)語義記憶。
- Raygun: 訪問崩潰報告和監(jiān)控數(shù)據(jù)。
- Search1API: 用于搜索、爬取和站點地圖的統(tǒng)一 API。
- Stripe: 與 Stripe API 交互。
- Tinybird: 與 Tinybird 無服務器 ClickHouse 平臺接口。
- Weaviate: 通過您的 Weaviate 系列啟用 Agentic RAG。
MCP 社區(qū)有哪些亮點?
MCP 官方社區(qū)開發(fā)的服務器生態(tài)系統(tǒng)不斷壯大,擴展了 MCP 的功能:
- Docker: 管理容器、鏡像、卷和網(wǎng)絡。
- Kubernetes: 管理 Pod、部署和服務。
- Linear: 項目管理和問題跟蹤。
- Snowflake: 與 Snowflake 數(shù)據(jù)庫交互。
- Spotify: 控制 Spotify 播放并管理播放列表。
- Todoist: 任務管理集成。
MCP的常見問題有哪些?
MCP 常見問題入口:https://modelcontextprotocol.io/faqs
MCP官方網(wǎng)站入口網(wǎng)址:
MCP官網(wǎng):https://modelcontextprotocol.io/
OpenI小編發(fā)現(xiàn)MCP網(wǎng)站非常受用戶歡迎,請訪問MCP官網(wǎng)網(wǎng)址入口試用。
數(shù)據(jù)評估
本站OpenI提供的MCP都來源于網(wǎng)絡,不保證外部鏈接的準確性和完整性,同時,對于該外部鏈接的指向,不由OpenI實際控制,在2025年 4月 18日 下午12:06收錄時,該網(wǎng)頁上的內(nèi)容,都屬于合規(guī)合法,后期網(wǎng)頁的內(nèi)容如出現(xiàn)違規(guī),可以直接聯(lián)系網(wǎng)站管理員進行刪除,OpenI不承擔任何責任。