完成「用大模型测试您的 mcp」章节
This commit is contained in:
parent
65adc6f8d5
commit
0d6bb121fc
18
.vscode/tabs.my-browser.json
vendored
18
.vscode/tabs.my-browser.json
vendored
@ -67,7 +67,7 @@
|
|||||||
"url"
|
"url"
|
||||||
]
|
]
|
||||||
},
|
},
|
||||||
"enabled": false
|
"enabled": true
|
||||||
},
|
},
|
||||||
{
|
{
|
||||||
"name": "k_screenshot",
|
"name": "k_screenshot",
|
||||||
@ -96,7 +96,7 @@
|
|||||||
"name"
|
"name"
|
||||||
]
|
]
|
||||||
},
|
},
|
||||||
"enabled": false
|
"enabled": true
|
||||||
},
|
},
|
||||||
{
|
{
|
||||||
"name": "k_click",
|
"name": "k_click",
|
||||||
@ -113,7 +113,7 @@
|
|||||||
"selector"
|
"selector"
|
||||||
]
|
]
|
||||||
},
|
},
|
||||||
"enabled": false
|
"enabled": true
|
||||||
},
|
},
|
||||||
{
|
{
|
||||||
"name": "k_fill",
|
"name": "k_fill",
|
||||||
@ -135,7 +135,7 @@
|
|||||||
"value"
|
"value"
|
||||||
]
|
]
|
||||||
},
|
},
|
||||||
"enabled": false
|
"enabled": true
|
||||||
},
|
},
|
||||||
{
|
{
|
||||||
"name": "k_select",
|
"name": "k_select",
|
||||||
@ -157,7 +157,7 @@
|
|||||||
"value"
|
"value"
|
||||||
]
|
]
|
||||||
},
|
},
|
||||||
"enabled": false
|
"enabled": true
|
||||||
},
|
},
|
||||||
{
|
{
|
||||||
"name": "k_hover",
|
"name": "k_hover",
|
||||||
@ -174,7 +174,7 @@
|
|||||||
"selector"
|
"selector"
|
||||||
]
|
]
|
||||||
},
|
},
|
||||||
"enabled": false
|
"enabled": true
|
||||||
},
|
},
|
||||||
{
|
{
|
||||||
"name": "k_evaluate",
|
"name": "k_evaluate",
|
||||||
@ -191,7 +191,7 @@
|
|||||||
"script"
|
"script"
|
||||||
]
|
]
|
||||||
},
|
},
|
||||||
"enabled": false
|
"enabled": true
|
||||||
},
|
},
|
||||||
{
|
{
|
||||||
"name": "k_get_full_page_text",
|
"name": "k_get_full_page_text",
|
||||||
@ -200,13 +200,13 @@
|
|||||||
"type": "object",
|
"type": "object",
|
||||||
"properties": {}
|
"properties": {}
|
||||||
},
|
},
|
||||||
"enabled": false
|
"enabled": true
|
||||||
}
|
}
|
||||||
],
|
],
|
||||||
"enableWebSearch": false,
|
"enableWebSearch": false,
|
||||||
"temperature": 0.6,
|
"temperature": 0.6,
|
||||||
"contextLength": 20,
|
"contextLength": 20,
|
||||||
"systemPrompt": "",
|
"systemPrompt": "猫娘",
|
||||||
"parallelToolCalls": true
|
"parallelToolCalls": true
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
@ -2,7 +2,7 @@
|
|||||||
|
|
||||||
如果需要使用「交互测试」来在和大模型的交互中测试 MCP 工具的性能,你需要首先需要在 OpenMCP 配置大模型。
|
如果需要使用「交互测试」来在和大模型的交互中测试 MCP 工具的性能,你需要首先需要在 OpenMCP 配置大模型。
|
||||||
|
|
||||||
:::warning
|
:::warning 协议兼容性警告
|
||||||
目前 OpenMCP 只支持符合 OpenAI 接口规范的 大模型服务,其他大模型的调用需要请通过 [newApi](https://github.com/QuantumNous/new-api) 进行转发或者自行实现。
|
目前 OpenMCP 只支持符合 OpenAI 接口规范的 大模型服务,其他大模型的调用需要请通过 [newApi](https://github.com/QuantumNous/new-api) 进行转发或者自行实现。
|
||||||
|
|
||||||
目前市面上主流的如下模型我们都是支持的,如果遇到大模型连接的问题,请随时 [[channel|联系我们]]。
|
目前市面上主流的如下模型我们都是支持的,如果遇到大模型连接的问题,请随时 [[channel|联系我们]]。
|
||||||
|
BIN
plugin-tutorial/usage/images/add-new-mcp.png
Normal file
BIN
plugin-tutorial/usage/images/add-new-mcp.png
Normal file
Binary file not shown.
After Width: | Height: | Size: 99 KiB |
BIN
plugin-tutorial/usage/images/parallel-tool-call.png
Normal file
BIN
plugin-tutorial/usage/images/parallel-tool-call.png
Normal file
Binary file not shown.
After Width: | Height: | Size: 134 KiB |
BIN
plugin-tutorial/usage/images/prompt.png
Normal file
BIN
plugin-tutorial/usage/images/prompt.png
Normal file
Binary file not shown.
After Width: | Height: | Size: 48 KiB |
BIN
plugin-tutorial/usage/images/resource.png
Normal file
BIN
plugin-tutorial/usage/images/resource.png
Normal file
Binary file not shown.
After Width: | Height: | Size: 591 KiB |
BIN
plugin-tutorial/usage/images/system-prompt.png
Normal file
BIN
plugin-tutorial/usage/images/system-prompt.png
Normal file
Binary file not shown.
After Width: | Height: | Size: 326 KiB |
@ -1 +1,14 @@
|
|||||||
# 连接多个 MCP 服务器
|
# 连接多个 MCP 服务器
|
||||||
|
|
||||||
|
openmcp 支持连接多个 MCP 服务器。
|
||||||
|
|
||||||
|
假设你现在想要实现一个可以自动查阅资料并且整理成 word 文档的 agent,你可以这样做:
|
||||||
|
|
||||||
|
1. 找到能进行网络搜索的 mcp:[crawl4ai mcp](https://github.com/LSTM-Kirigaya/openmcp-tutorial/tree/main/crawl4ai-mcp)
|
||||||
|
2. 找到能进行 word 操作的 mcp:[Office-Word-MCP-Server](https://github.com/GongRzhe/Office-Word-MCP-Server)
|
||||||
|
3. 在 openmcp 中把它们组合起来。
|
||||||
|
4. 自动完成你的任务!
|
||||||
|
|
||||||
|
假设,我们已经连接了第一个 mcp,也就是 crawl4ai mcp,我们可以添加额外的 mcp 服务器:
|
||||||
|
|
||||||
|

|
@ -1 +1,72 @@
|
|||||||
# 用大模型测试您的 mcp
|
# 用大模型测试您的 mcp
|
||||||
|
|
||||||
|
如果您完成了 [[connect-llm|连接 mcp 服务器]] 这一步,那么您就可以开始测试您的 mcp 了。
|
||||||
|
|
||||||
|
在 [[put-into-llm|扔进大模型里面测测好坏!]] 中,我们已经通过一个简单的例子来展示来如何使用大模型测试您的 mcp。因此,这篇文章更多是讲解不便在「快速开始」中赘述的细节。
|
||||||
|
|
||||||
|
|
||||||
|
和大模型交互时,有一些参数可以选择,也就是输入框下面那一排按钮,我来简单介绍一下。
|
||||||
|
|
||||||
|
## 选择模型
|
||||||
|
|
||||||
|
顾名思义,你可以在这里切换你的模型。值得一提的是,openmcp 会以单条对话为粒度来记录每一条对话使用的模型。您可以利用这一特性来进行混合模型测试。
|
||||||
|
|
||||||
|
如果你没有找到你想要的模型,或是想要添加额外的模型,请移步 [[connect-llm|连接 mcp 服务器]] 来了解如何添加模型。
|
||||||
|
|
||||||
|
## 系统提示词
|
||||||
|
|
||||||
|
您可以在这里选择和添加系统提示词。
|
||||||
|
|
||||||
|

|
||||||
|
|
||||||
|
openmcp 默认将您的系统提示词保存在 `~/.openmcp/nedb/systemPrompt.db` 中。您可以通过 nedb 来进行反序列化和拷贝。
|
||||||
|
|
||||||
|
|
||||||
|
## 提词
|
||||||
|
|
||||||
|
您可以利用该模块来调用 mcp 服务器提供的 prompt 功能,生成的 prompt 字段会作为富文本被插入您的对话中。
|
||||||
|
|
||||||
|

|
||||||
|
|
||||||
|
## 资源
|
||||||
|
|
||||||
|
您可以利用该模块来调用 mcp 服务器提供的 resource 功能,生成的 resource 字段会作为富文本被插入您的对话中。
|
||||||
|
|
||||||
|

|
||||||
|
|
||||||
|
:::warning openmcp 不负责 resource 的数据持久化!
|
||||||
|
请注意!每次对话完成后 resource 是否会被保存到磁盘完全由 mcp server 作者决定,openmcp 不负责 resource 的数据持久化!如果您发现关闭 openmcp 再打开,resource 彩蛋为空,这不是 openmcp 的 bug,而是 mcp server 作者没有支持数据持久化!
|
||||||
|
:::
|
||||||
|
|
||||||
|
|
||||||
|
## 允许模型在单轮回复中调用多个工具
|
||||||
|
|
||||||
|
大模型在进行工具调用时,有时候会将在一次回复中要求调用多次工具,比如你想要同时获取三个网页的内容翻译,大模型可能会同时调用三次「网络搜索」工具(如果你提供了的话)。多次工具使用时,openmcp 会如此渲染调用执行过程:
|
||||||
|
|
||||||
|

|
||||||
|
|
||||||
|
openmcp 输入框的按钮中的「允许模型在单轮回复中调用多个工具」默认是点亮的。也就是允许大模型可以在一次回复中调用多次工具。
|
||||||
|
|
||||||
|
有的时候,我们希望命令一条条执行,就可以选择把这个按钮熄灭。
|
||||||
|
|
||||||
|
:::warning 协议兼容性警告
|
||||||
|
有的厂商(比如 gemini)不一定严格支持了 openai 协议,对于不支持 「允许模型在单轮回复中调用多个工具」的厂商,openmcp 的后端会自动将该选项关闭。
|
||||||
|
:::
|
||||||
|
|
||||||
|
|
||||||
|
## 温度参数
|
||||||
|
|
||||||
|
温度参数越高,生成内容的随机性越强,对于通用大模型,个人建议参数为 0.6 ~ 0.7,会是一个适用于通用型任务的数值。OpenMCP 提供的默认值为 0.6。
|
||||||
|
|
||||||
|
## 上下文长度
|
||||||
|
|
||||||
|
上下文长度代表了大模型的最大上下文轮数,默认值为 20。举个例子,如果你和大模型对话产生了 40 轮数据(工具调用条数+你的问题数量+大模型回答的次数总共 40 个),那么下一次对话 openmcp 只会发送最后 20 条数据给大模型。
|
||||||
|
|
||||||
|
:::warning 上下文长度不要太小!
|
||||||
|
我们强烈不推荐你将这个数值设置低于 20,因为大模型接受工具调用的结果需要和之前的调用请求一一对应。如果不对应,大模型会返回注入 400 这样的错误。遇到这样的错误,请从最初一句话重启或者新开一个「交互测试」。
|
||||||
|
:::
|
||||||
|
|
||||||
|
## MCP 服务器超时
|
||||||
|
|
||||||
|
MCP 服务器默认超时时间为 30 秒,如果您的 mcp 服务器需要更长的时间才能完成任务,您可以通过「设置」「通用」来设置超时时间,单位为秒,该设置全局生效。
|
||||||
|
|
||||||
|
Loading…
x
Reference in New Issue
Block a user