完成其他语种翻译

This commit is contained in:
锦恢 2025-06-11 22:35:42 +08:00
parent bceb242747
commit 04d61a27b2
41 changed files with 1229 additions and 1563 deletions

BIN
.DS_Store vendored

Binary file not shown.

2
.gitignore vendored
View File

@ -134,3 +134,5 @@ dist
.yarn/build-state.yml
.yarn/install-state.gz
.pnp.*
.pipeline

View File

@ -58,7 +58,7 @@ interface Contributor {
export const contributors = [
{
name: '锦恢',
name: 'LSTM-Kirigaya (锦恢)',
nameAliases: ['LSTM-Kirigaya', 'Kirigaya'],
mapByEmailAliases: ['1193466151@qq.com'],
links: [{ type: '', link: 'https://www.zhihu.com/people/can-meng-zhong-de-che-xian' }]

View File

@ -1,32 +1,30 @@
# MCP 基概念
# MCP 基概念
## 前言
## はじめに
[[what-is-mcp|前回の記事]]では、MCPの定義と基本的な組織構造について簡単に紹介しました。開発者として最も注目すべきは、自社の業務とシナリオに基づいて必要なMCPサーバーをカスタマイズ開発する方法です。これにより、任意のMCPクライアントに直接接続して、カスタマイズされたインタラクション能力を大規模モデルに提供できます。
MCPサーバーの開発方法を説明する前に、いくつかの基本概念を明確にしておく必要があると思います。
在 [[what-is-mcp|之前的文章]] 中,我们简单介绍了 MCP 的定义和它的基本组织结构。作为开发者,我们最需要关注的其实是如何根据我们自己的业务和场景定制化地开发我们需要的 MCP 服务器,这样直接接入任何一个 MCP 客户端后,我们都可以给大模型以我们定制出的交互能力。
## Resources、Prompts、Tools
在正式开始教大家如何开发自己的 MCP 服务器之前,我想,或许有必要讲清楚几个基本概念。
[MCPクライアントプロトコル](https://modelcontextprotocol.io/clients)では、MCPプロトコルの3つの重要な能力カテゴリについて説明されています
## Resources, Prompts 和 Tools
- Resoucesローカルリソースをカスタマイズしてリクエスト・アクセスする機能。ファイルシステム、データベース、現在のコードエディタ内のファイルなど、ウェブアプリでは通常アクセスできない**静的リソース**を指します。追加のresourcesは大規模モデルに送信されるコンテキストを豊富にし、AIからより正確な回答を得られます。
- Prompts特定のシナリオでAIが採用可能なプロンプトをカスタマイズします。例えば、AIに特定のフォーマットで内容を返させる必要がある場合、カスタムプロンプトを提供できます。
- ToolsAIが使用できるツールで、関数である必要があります。ホテルの予約、ウェブページの開閉、照明のオンオフなどのカプセル化された関数がtoolとなります。大規模モデルはfunction callingの方法でこれらのtoolsを使用します。Toolsにより、AIが直接コンピュータを操作したり、現実世界とインタラクションしたりできるようになります。
在 [MCP 客户端协议](https://modelcontextprotocol.io/clients) 中,讲到了 MCP 协议中三个非常重要的能力类别:
フロントエンド・バックエンド開発経験のある方は、Resoucesを「大規模モデルに付与する追加の読み取り専用権限」、Toolsを「大規模モデルに付与する追加の読み書き権限」と考えることができます。
- Resouces 定制化地请求和访问本地的资源可以是文件系统、数据库、当前代码编辑器中的文件等等原本网页端的app 无法访问到的 **静态资源**。额外的 resources 会丰富发送给大模型的上下文,使得 AI 给我们更加精准的回答。
- Prompts :定制化一些场景下可供 AI 进行采纳的 prompt比如如果需要 AI 定制化地返回某些格式化内容时,可以提供自定义的 prompts。
- Tools :可供 AI 使用的工具,它必须是一个函数,比如预定酒店、打开网页、关闭台灯这些封装好的函数就可以是一个 tool大模型会通过 function calling 的方式来使用这些 tools。 Tools 将会允许 AI 直接操作我们的电脑,甚至和现实世界发生交互。
MCPクライアントClaude Desktop、5ireなどは既に上記のフロントエンドロジックを実装しています。具体的にどのようなリソースやツールを提供するかは、開発者の想像力次第です。つまり、多彩なMCP Serverを開発することで、大規模モデルにより興味深い作業を行わせることができます。
各位拥有前后端开发经验的朋友们,可以将 Resouces 看成是「额外给予大模型的只读权限」,把 Tools 看成是「额外给予大模型的读写权限」。
ただし、現在ほぼすべての大規模モデルはopenaiプロトコルをアクセスポイントとして採用している点に注意が必要です。openaiプロトコルとは何でしょうか
MCP 客户端(比如 Claude Desktop5ire 等)已经实现好了上述的前端部分逻辑。而具体提供什么资源,具体提供什么工具,则需要各位玩家充分想象了,也就是我们需要开发丰富多彩的 MCP Server 来允许大模型做出更多有意思的工作。
## openaiプロトコル
不过需要说明的一点是,目前几乎所有大模型采用了 openai 协议作为我们访问大模型的接入点。什么叫 openai 协议呢?
PythonやTypeScriptでアプリを開発する際、通常はopenaiという名前のライブラリをインストールし、使用するモデルベンダー、モデルのベースURL、使用するモデルタイプを入力して大規模モデルに直接アクセスします。各モデルプロバイダーもこのライブラリとプロトコルをサポートする必要があります。
## openai 协议
当我们使用 python 或者 typescript 开发 app 时,往往会安装一个名为 openai 的库,里面填入你需要使用的模型厂商、模型的基础 url、使用的模型类别来直接访问大模型。而各个大模型提供商也必须支持这个库这套协议。
比如我们在 python 中访问 deepseek 的服务就可以这么做:
例えばPythonでdeepseekのサービスにアクセスする場合、次のようにできます
```python
from openai import OpenAI
@ -45,7 +43,7 @@ response = client.chat.completions.create(
print(response.choices[0].message.content)
```
如果你点进这个 create 函数去看,你会发现 openai 协议需要大模型厂家支持的 feature 是非常非常多的
このcreate関数の中身を見ると、openaiプロトコルが大規模モデルプロバイダーに要求する機能が非常に多いことがわかります
```python
@overload
@ -83,8 +81,8 @@ print(response.choices[0].message.content)
top_p: Optional[float] | NotGiven = NOT_GIVEN,
user: str | NotGiven = NOT_GIVEN,
web_search_options: completion_create_params.WebSearchOptions | NotGiven = NOT_GIVEN,
# Use the following arguments if you need to pass additional parameters to the API that aren't available via kwargs.
# The extra values given here take precedence over values defined on the client or passed to this method.
# 以下の引数は、kwargsを介して利用できない追加のAPIパラメータを渡す必要がある場合に使用します。
# ここで指定された追加の値は、クライアントで定義された値やこのメソッドに渡された値よりも優先されます。
extra_headers: Headers | None = None,
extra_query: Query | None = None,
extra_body: Body | None = None,
@ -92,13 +90,13 @@ print(response.choices[0].message.content)
) -> ChatCompletion:
```
从上面的签名中,你应该可以看到几个很熟悉的参数,比如 `temperature`, `top_p`,很多的大模型使用软件中,有的会给你暴露这个参数进行调节。比如在 5ire 中,内容随机度就是 `temperature` 这个参数的图形化显示
上記のシグネチャから、`temperature``top_p`など、いくつか見覚えのあるパラメータが確認できます。多くの大規模モデル使用ソフトウェアでは、このパラメータを調整できるようになっています。例えば5ireでは、コンテンツのランダム性は`temperature`パラメータのグラフィカル表示です
<div align=center>
<img src="https://picx.zhimg.com/80/v2-9f8544aa917e8c128fc194adeb7161cd_1440w.png" style="width: 100%;"/>
</div>
其实如你所见,一次普普通通调用涉及到的可调控参数是非常之多的。而在所有参数中,你可以注意到一个参数叫做 `tools`:
実際、ご覧の通り、普通の呼び出しに関わる調整可能なパラメータは非常に多岐にわたります。すべてのパラメータの中で、`tools`というパラメータに注目してください:
```python
@overload
@ -109,14 +107,14 @@ print(response.choices[0].message.content)
model: Union[str, ChatModel],
audio: Optional[ChatCompletionAudioParam] | NotGiven = NOT_GIVEN,
# 看这里
# ここを見て
tools: Iterable[ChatCompletionToolParam] | NotGiven = NOT_GIVEN,
) -> ChatCompletion:
```
## tool_calls 字段
## tool_callsフィールド
在上面的 openai 协议中,有一个名为 tools 的参数。 tools 就是要求大模型厂商必须支持 function calling 这个特性,也就是我们提供一部分工具的描述(和 MCP 协议完全兼容的),在 tools 不为空的情况下chat 函数返回的值中会包含一个特殊的字段 `tool_calls`,我们可以运行下面的我写好的让大模型调用可以查询天气的代码
上記のopenaiプロトコルには、toolsというパラメータがあります。toolsは、大規模モデルプロバイダーがfunction callingという特性をサポートする必要があることを意味しますMCPプロトコルと完全互換。toolsが空でない場合、chat関数の戻り値には特別なフィールド`tool_calls`が含まれます。以下は、私が作成した天気を問い合わせるコードです
```python
from openai import OpenAI
@ -126,19 +124,19 @@ client = OpenAI(
base_url="https://api.deepseek.com"
)
# 定义 tools函数/工具列表)
# tools関数/ツールリスト)を定義
tools = [
{
"type": "function",
"function": {
"name": "get_current_weather",
"description": "获取给定地点的天气",
"description": "指定された場所の天気を取得",
"parameters": {
"type": "object",
"properties": {
"location": {
"type": "string",
"description": "城市,比如杭州,北京,上海",
"description": "都市、例えば杭州、北京、上海",
}
},
"required": ["location"],
@ -150,18 +148,18 @@ tools = [
response = client.chat.completions.create(
model="deepseek-chat",
messages=[
{"role": "system", "content": "你是一个很有用的 AI"},
{"role": "user", "content": "今天杭州的天气是什么"},
{"role": "system", "content": "あなたは役立つAIです"},
{"role": "user", "content": "今日の杭州の天気は"},
],
tools=tools, # 传入 tools 参数
tool_choice="auto", # 可选:控制是否强制调用某个工具
tools=tools, # toolsパラメータを渡す
tool_choice="auto", # オプション:特定のツールの呼び出しを強制するかどうかを制御
stream=False,
)
print(response.choices[0].message)
```
运行上述代码,它的返回如下
上記のコードを実行すると、次のような戻り値が得られます
```python
ChatCompletionMessage(
@ -185,48 +183,44 @@ ChatCompletionMessage(
)
```
可以看到上面的 `tool_calls` 给出了大模型想要如何去使用我们给出的工具。需要说明的一点是,收到上下文的限制,目前一个问题能够让大模型调取的工具上限一般不会超过 100 个,这个和大模型厂商的上下文大小有关系。奥,对了,友情提示,当你使用 MCP 客户端在使用大模型解决问题时,同一时间激活的 MCP Server 越多,消耗的 token 越多哦 :D
上記の`tool_calls`から、大規模モデルが提供されたツールをどのように使用したいかがわかります。注意点として、コンテキストの制限により、現在1つの質問で大規模モデルが呼び出せるツールの上限は通常100個を超えません。これは大規模モデルプロバイダーのコンテキストサイズに関係します。あ、そうそう、友情提示ですが、MCPクライアントで大規模モデルを使用して問題を解決する際、同時にアクティブなMCP Serverが多いほど、消費されるtokenも多くなりますよ :D
而目前 openai 的协议中tools 是只支持函数类的调用。而函数类的调用往往是可以模拟出 Resources 的效果的。比如取资源,你可以描述为一个 tool。因此在正常情况下如果大家要开发 MCP Server最好只开发 Tools另外两个 feature 还暂时没有得到广泛支持
現在のopenaiプロトコルでは、toolsは関数クラスの呼び出しのみをサポートしています。関数クラスの呼び出しは、Resourcesの効果をシミュレートできる場合があります。例えばリソースを取得する場合、それをtoolとして記述できます。したがって、通常の場合、MCP Serverを開発する際は、Toolsのみを開発するのが最善です。他の2つの機能はまだ広くサポートされていません
## Inspectorを使用したデバッグ
## 使用 Inspector 进行调试
Claude 原生提供的 MCP 协议可以通过官方提供的 Inspector 进行调试,对于 [[first-mcp|你的第一个 MCP]] 中的例子,可以如下进行调试,在命令行输入如下命令启动 Inspector:
Claudeがネイティブで提供するMCPプロトコルは、公式が提供するInspectorでデバッグできます。[[first-mcp|最初のMCP]]の例では、次のようにデバッグできます。コマンドラインで次のコマンドを入力してInspectorを起動します
```bash
mcp dev main.py
```
这会启动一个前端服务器,并打开 `http://localhost:5173/` 后我们可以看到 inspector 的调试界面,先点击左侧的 `Connect` 来运行我们的 server.py 并通过 stdio 为通信管道和 web 建立通信
これによりフロントエンドサーバーが起動し、`http://localhost:5173/`を開くとinspectorのデバッグインターフェースが表示されます。まず左側の`Connect`をクリックしてserver.pyを実行し、stdioを通信パイプとして使用してwebと通信を確立します
Fine可以开始愉快地进行调试了Inspector 主要给了我们三个板块,分别对应 ResourcesPrompts 和 Tools
さあ、楽しくデバッグを始められます。Inspectorは主に3つのセクションを提供し、それぞれResources、Prompts、Toolsに対応しています
先来看 Resources点击「Resource Templates」可以罗列所有注册的 Resource比如我们上文定义的 `get_greeting`,你可以通过输入参数运行来查看这个函数是否正常工作。(因为一般情况下的这个资源协议是会访问远程数据库或者微服务的
まずResourcesを見てみましょう。「Resource Templates」をクリックすると、登録されているすべてのResourceがリスト表示されます。例えば上記で定義した`get_greeting`は、パラメータを入力して実行することで、この関数が正常に動作するかどうかを確認できます。(通常、このリソースプロトコルはリモートデータベースまたはマイクロサービスにアクセスします
<div align=center>
<img src="https://picx.zhimg.com/80/v2-71fc1ad813cdbf7ecec24d878c343b96_1440w.png" style="width: 100%;"/>
</div>
Prompts 端就比较简单了,直接输入预定义参数就能获取正常的返回结果
Prompts側は比較的シンプルで、定義済みパラメータを入力するだけで正常な戻り値を取得できます
<div align=center>
<img src="https://pic1.zhimg.com/80/v2-4f42899ba1163922ac2347f7cebe5362_1440w.png" style="width: 100%;"/>
</div>
Tools 端将会是我们后面调试的核心。在之前的章节我们讲过了MCP 协议中的 Prompts 和 Resources 目前还没有被 openai 协议和各大 MCP 客户端广泛支持,因此,我们主要的服务端业务都应该是在写 tools
Tools側は、これからデバッグの中心となる部分です。前の章で説明したように、MCPプロトコルのPromptsとResourcesは現在openaiプロトコルや主要なMCPクライアントで広くサポートされていないため、サーバー側の主要なビジネスはtoolsの作成に集中すべきです
我们此处提供的 tool 是实现一个简单的加法,它非常简单,我们输入 1 和 2 就可以直接看到结果是 3。我们后续会开发一个可以访问天气预报的 tool那么到时候就非常需要一个这样的窗口来调试我们的天气信息获取是否正常了
ここで提供するtoolは、簡単な加算を実装するものです。非常にシンプルで、1と2を入力すると、結果が3であることが直接確認できます。今後、天気予報にアクセスできるtoolを開発する予定ですので、その際はこのようなウィンドウが天気情報の取得が正常かどうかをデバッグするのに非常に役立ちます
<div align=center>
<img src="https://pic1.zhimg.com/80/v2-4164a900198a70a158ae441f9e441d07_1440w.png" style="width: 100%;"/>
</div>
## まとめ
この記事では、MCP内部のいくつかの基本概念について簡単に理解しました。これらの概念は、MCPサーバーを開発する上で非常に有益だと思いますので、まず説明する必要があると考えました。
## 结语
这篇文章,我们简单了解了 MCP 内部的一些基本概念,我认为这些概念对于诸位开发一个 MCP 服务器是大有裨益的,所以我认为有必要先讲一讲。
下面的文章中,我将带领大家探索 MCP 的奇境,一个属于 AI Agent 的时代快要到来了。
次の記事では、MCPの不思議な世界を探求し、AI Agentの時代がまもなく到来することをお伝えします。

View File

@ -1,32 +1,30 @@
# go 实现 neo4j 的只读 mcp 服务器 (SSE)
# Goで実装するNeo4jの読み取り専用MCPサーバーSSE
[本期教程视频](https://www.bilibili.com/video/BV1g8TozyEE7/)
[今回のチュートリアル動画](https://www.bilibili.com/video/BV1g8TozyEE7/)
## 前言
## はじめに
本篇教程,演示一下如何使用 go 语言写一个可以访问 neo4j 数据库的 mcp 服务器。实现完成后,我们不需要写任何 查询代码 就能通过询问大模型了解服务器近况
このチュートリアルでは、Go言語を使ってNeo4jデータベースにアクセスできるMCPサーバーを書く方法をデモンストレーションします。実装が完了すると、クエリコードを一切書かずに、大規模言語モデルに問い合わせるだけでサーバーの状況を把握できるようになります
不同于之前的连接方式,这次,我们将采用 SSE 的方式来完成服务器的创建和连接
従来の接続方法とは異なり、今回はSSEServer-Sent Events方式でサーバーの作成と接続を行います
本期教程的代码https://github.com/LSTM-Kirigaya/openmcp-tutorial/tree/main/neo4j-go-server
今回のチュートリアルのコードhttps://github.com/LSTM-Kirigaya/openmcp-tutorial/tree/main/neo4j-go-server
建议下载本期的代码,因为里面有我为大家准备好的数据库文件。要不然,你们得自己 mock 数据了
このコードをダウンロードすることをお勧めします。なぜなら、私が準備したデータベースファイルが含まれているからです。そうでないと、自分でデータをモックする必要があります
## 1. 準備
## 1. 准备
项目结构如下:
プロジェクトの構造は以下の通りです:
```bash
📦neo4j-go-server
┣ 📂util
┃ ┗ 📜util.go # 工具函
┣ 📜main.go # 主函
┗ 📜neo4j.json # 数据库连接的账号密码
┃ ┗ 📜util.go # ユーティリティ関
┣ 📜main.go # メイン関
┗ 📜neo4j.json # データベース接続のアカウント情報
```
我们先创建一个 go 项目
まずGoプロジェクトを作成します
```bash
mkdir neo4j-go-server
@ -34,15 +32,13 @@ cd neo4j-go-server
go mod init neo4j-go-server
```
## 2. データベースの初期化を完了する
### 2.1 Neo4jのインストール
## 2. 完成数据库初始化
まず、私のチュートリアルに従ってローカルまたはサーバーにNeo4jデータベースを設定します。ここではチュートリアルですので、このチュートリアルの最初の2ステップだけを完了すれば十分です[Neo4jデータベースのインストールと設定](https://kirigaya.cn/blog/article?seq=199)。binパスを環境変数に追加し、パスワードをopenmcpに設定します。
### 2.1 安装 neo4j
首先,根据我的教程在本地或者服务器配置一个 neo4j 数据库,这里是是教程,你只需要完成该教程的前两步即可: [neo4j 数据库安装与配置](https://kirigaya.cn/blog/article?seq=199)。将 bin 路径加入环境变量,并且设置的密码设置为 openmcp。
然后在 main.go 同级下创建 neo4j.json填写 neo4j 数据库的连接信息:
次に、main.goと同じ階層にneo4j.jsonを作成し、Neo4jデータベースの接続情報を記入します
```json
{
@ -52,9 +48,9 @@ go mod init neo4j-go-server
}
```
### 2.2 导入事先准备好的数据
### 2.2 事前に準備されたデータのインポート
安装完成后,大家可以导入我实现准备好的数据,这些数据是我的个人网站上部分数据脱敏后的摘要,大家可以随便使用,下载链接[neo4j.db](https://github.com/LSTM-Kirigaya/openmcp-tutorial/releases/download/neo4j.db/neo4j.db)。下载完成后,运行下面的命令
インストールが完了したら、私が事前に準備したデータをインポートできます。これらのデータは私の個人ウェブサイトの一部のデータを匿名化した要約です。自由に使用してください。ダウンロードリンク[neo4j.db](https://github.com/LSTM-Kirigaya/openmcp-tutorial/releases/download/neo4j.db/neo4j.db)。ダウンロードが完了したら、以下のコマンドを実行します
```bash
neo4j stop
@ -62,7 +58,7 @@ neo4j-admin load --database neo4j --from neo4j.db --force
neo4j start
```
然后,我们登录数据库就能看到我准备好的数据啦
その後、データベースにログインすると、私が準備したデータを見ることができます
```bash
cypher-shell -a localhost -u neo4j -p openmcp
@ -72,17 +68,17 @@ cypher-shell -a localhost -u neo4j -p openmcp
<img src="https://pic1.zhimg.com/80/v2-4b53ad6a355c05d99c7ed18687ced717_1440w.png" style="width: 80%;"/>
</div>
### 2.3 验证 go -> 数据库连通性
### 2.3 Goからデータベースへの接続性を検証する
为了验证数据库的连通性和 go 的数据库驱动是否正常工作,我们需要先写一段数据库访问的最小系统
データベースの接続性とGoのデータベースドライバーが正常に動作していることを確認するために、まずデータベースアクセスの最小システムを書く必要があります
先安装 neo4j 的 v5 版本的 go 驱动
まず、Neo4jのv5バージョンのGoドライバーをインストールします
```bash
go get github.com/neo4j/neo4j-go-driver/v5
```
`util.go` 中添加以下代码
`util.go`に以下のコードを追加します
```go
package util
@ -100,7 +96,7 @@ var (
Neo4jDriver neo4j.DriverWithContext
)
// 创建 neo4j 服务器的连接
// Neo4jサーバーへの接続を作成
func CreateNeo4jDriver(configPath string) (neo4j.DriverWithContext, error) {
jsonString, _ := os.ReadFile(configPath)
config := make(map[string]string)
@ -120,7 +116,7 @@ func CreateNeo4jDriver(configPath string) (neo4j.DriverWithContext, error) {
}
// 执行只读的 cypher 查询
// 読み取り専用のCypherクエリを実行
func ExecuteReadOnlyCypherQuery(
cypher string,
) ([]map[string]any, error) {
@ -145,7 +141,7 @@ func ExecuteReadOnlyCypherQuery(
}
```
main.go 中添加以下代码
main.goに以下のコードを追加します
```go
package main
@ -170,66 +166,64 @@ func main() {
}
```
运行主程序来验证数据库的连通性
メインプログラムを実行してデータベースの接続性を検証します
```bash
go run main.go
```
如果输出了 `Neo4j driver created successfully`,则说明数据库的连通性验证通过
`Neo4j driver created successfully`と出力されれば、データベースの接続性検証は成功です
## 3. MCPサーバーの実装
GoのMCP SDKで最も有名なのはmark3labs/mcp-goです。これを使用します。
## 3. 实现 mcp 服务器
> mark3labs/mcp-goのデモはhttps://github.com/mark3labs/mcp-goにあり、非常にシンプルです。ここでは直接使用します。
go 的 mcp 的 sdk 最为有名的是 mark3labs/mcp-go 了,我们就用这个。
> mark3labs/mcp-go 的 demo 在 https://github.com/mark3labs/mcp-go非常简单此处直接使用即可。
先安装
まずインストールします:
```bash
go get github.com/mark3labs/mcp-go
```
然后在 `main.go` 中添加以下代码
次に`main.go`に以下のコードを追加します
```go
// ... existing code ...
// ... 既存のコード ...
var (
addr string = "localhost:8083"
)
func main() {
// ... existing code ...
// ... 既存のコード ...
s := server.NewMCPServer(
"只读 Neo4j 服务器",
"読み取り専用Neo4jサーバー",
"0.0.1",
server.WithToolCapabilities(true),
)
srv := server.NewSSEServer(s)
// 定义 executeReadOnlyCypherQuery 这个工具的 schema
// executeReadOnlyCypherQueryツールのスキーマを定義
executeReadOnlyCypherQuery := mcp.NewTool("executeReadOnlyCypherQuery",
mcp.WithDescription("执行只读的 Cypher 查询"),
mcp.WithDescription("読み取り専用のCypherクエリを実行"),
mcp.WithString("cypher",
mcp.Required(),
mcp.Description("Cypher 查询语句,必须是只读的"),
mcp.Description("Cypherクエリ文、読み取り専用でなければなりません"),
),
)
// 将真实函数和申明的 schema 绑定
// 実際の関数と宣言されたスキーマをバインド
s.AddTool(executeReadOnlyCypherQuery, func(ctx context.Context, request mcp.CallToolRequest) (*mcp.CallToolResult, error) {
args, ok := request.Params.Arguments.(map[string]interface{})
if !ok {
return mcp.NewToolResultText(""), fmt.Errorf("invalid arguments type")
return mcp.NewToolResultText(""), fmt.Errorf("無効な引数の型")
}
cypher, ok := args["cypher"].(string)
if !ok {
return mcp.NewToolResultText(""), fmt.Errorf("cypher argument is not a string")
return mcp.NewToolResultText(""), fmt.Errorf("cypher引数が文字列ではありません")
}
result, err := util.ExecuteReadOnlyCypherQuery(cypher)
@ -242,247 +236,104 @@ func main() {
return mcp.NewToolResultText(fmt.Sprintf("%v", result)), nil
})
// 在 http://localhost:8083/sse 开启服务
fmt.Printf("Server started at http://%s/sse\n", addr)
// http://localhost:8083/sseでサービスを開始
fmt.Printf("サーバーがhttp://%s/sseで起動しました\n", addr)
srv.Start(addr)
}
```
go run main.go 运行上面的代码,你就能看到如下信息
go run main.goを実行すると、以下の情報が表示されます
```
Neo4j driver created successfully
Server started at http://localhost:8083/sse
サーバーがhttp://localhost:8083/sseで起動しました
```
说明我们的 mcp 服务器在本地的 8083 上启动了
これで、MCPサーバーがローカルの8083ポートで起動しました
## 4. OpenMCPを使用したデバッグ
### 4.1 ワークスペースにSSEデバッグプロジェクトを追加
## 4. 通过 openmcp 来进行调试
### 4.1 添加工作区 sse 调试项目
接下来,我们来通过 openmcp 进行调试,先点击 vscode 左侧的 openmcp 图标进入控制面板,如果你是下载的 https://github.com/LSTM-Kirigaya/openmcp-tutorial/tree/main/neo4j-go-server 这个项目那么你能看到【MCP 连接(工作区)】里面已经有一个创建好的调试项目【只读 Neo4j 服务器】了。如果你是完全自己做的这个项目,可以通过下面的按钮添加连接,选择 sse 后填入 http://localhost:8083/sseoauth 空着不填即可。
次に、OpenMCPを使用してデバッグを行います。まず、VSコードの左側にあるOpenMCPアイコンをクリックしてコントロールパネルに入ります。https://github.com/LSTM-Kirigaya/openmcp-tutorial/tree/main/neo4j-go-server からこのプロジェクトをダウンロードした場合、【MCP接続ワークスペース】に既に作成済みのデバッグプロジェクト【読み取り専用Neo4jサーバー】が表示されます。完全に自分でこのプロジェクトを作成した場合は、以下のボタンから接続を追加し、SSEを選択してhttp://localhost:8083/sseを入力し、OAuthは空のままにします。
<div align=center>
<img src="https://picx.zhimg.com/80/v2-31a01f1253dfc8c42e23e05b1869a932_1440w.png" style="width: 80%;"/>
</div>
### 4.2 测试工具
### 4.2 ツールのテスト
第一次调试 mcp 服务器要做的事情一定是先调通 mcp tool新建标签页选择 tool点击下图的工具输入 `CALL db.labels() YIELD label RETURN label`,这个语句是用来列出所有节点类型的。如果输出下面的结果,说明当前的链路生效,没有问题
MCPサーバーを初めてデバッグする際に最初に行うべきことは、MCPツールを動作させることです。新しいタブを作成し、ツールを選択し、以下の図のツールをクリックして、`CALL db.labels() YIELD label RETURN label`と入力します。この文はすべてのノードタイプをリストアップするために使用されます。以下の結果が出力されれば、現在のリンクは有効で問題ありません
<div align=center>
<img src="https://pic1.zhimg.com/80/v2-dd59d9c96ecb455e527ab8aa7f963908_1440w.png" style="width: 100%;"/>
</div>
### 4.3 大規模言語モデルの機能範囲を理解し、プロンプトで知識をカプセル化する
### 4.3 摸清大模型功能边界,用提示词来封装我们的知识
然后,让我们做点有趣的事情吧!我们接下来要测试一下大模型的能力边界,因为 neo4j 属于特种数据库,通用大模型不一定知道怎么用它。新建标签页,点击「交互测试」,我们先问一个简单的问题:
それでは、面白いことをしてみましょう次に、大規模言語モデルの能力範囲をテストします。なぜなら、Neo4jは特殊なデータベースであり、一般的な大規模言語モデルはその使用方法を知らないかもしれないからです。新しいタブを作成し、「インタラクティブテスト」をクリックし、まず簡単な質問をします
```
帮我找出最新的 10 条评论
最新の10件のコメントを見つけてください
```
结果如下
結果は以下の通りです
<div align=center>
<img src="https://picx.zhimg.com/80/v2-44fab30650051db4e3b94de34275af3a_1440w.png" style="width: 100%;"/>
</div>
可以看到,大模型查询的节点类型就是错误的,在我提供的例子中,代表评论的节点是 BlogComment而不是 Comment。也就是说大模型并不掌握进行数据库查询的通用方法论。这就是我们目前知道的它的能力边界。我们接下来要一步一步地注入我们的经验和知识唔姆通过 system prompt 来完成
大規模言語モデルがクエリしたードタイプが間違っていることがわかります。私が提供した例では、コメントを表すードはBlogCommentであり、Commentではありません。つまり、大規模言語モデルはデータベースクエリの一般的な方法論を掌握していません。これが現在わかっているその能力範囲です。次に、私たちの経験と知識を段階的に注入します。うむ、システムプロンプトを通じて完了します
### 4.4 教大模型找数据库节点
### 4.4 大規模言語モデルにデータベースノードを見つける方法を教える
好好想一下,作为工程师的我们是怎么知道评论的节点是 BlogComment我们一般是通过罗列当前数据库的所有节点的类型来从命名中猜测的比如对于这个数据库我一般会先输入如下的 cypher 查询
よく考えてみてください。エンジニアとして、私たちはどのようにしてコメントのードがBlogCommentであることを知るのでしょうか一般的に、現在のデータベースのすべてのードタイプをリストアップし、命名から推測します。たとえば、このデータベースの場合、私はまず以下のようなCypherクエリを入力します
```sql
CALL db.labels() YIELD label RETURN label
```
它的输出就在 4.2 的图中,如果你的英文不错,也能看出来 BlogComment 大概率是代表博客评论的节点。好了,那么我们将这段方法论注入到 system prompt 中,从而封装我们的这层知识,点击下图的下方的按钮,进入到【系统提示词】:
その出力は4.2の図にあります。英語が得意であれば、BlogCommentがおそらくブログコメントを表すードであることがわかるでしょう。さて、この方法論をシステムプロンプトに注入し、この知識をカプセル化します。以下の図の下部のボタンをクリックして、【システムプロンプト】に入ります
<div align=center>
<img src="https://pica.zhimg.com/80/v2-e0fdd265e53dd354163358be1f5cc3f6_1440w.png" style="width: 100%;"/>
</div>
新建提示词【neo4j】输入
新しいプロンプト【neo4j】を作成し、入力します
```
你是一个善于进行neo4j查询的智能体对于用户要求的查询请求你并不一定知道对应的数据库节点是什么这个时候你需要先列出所有的节点类型然后从中找到你认为最有可能是匹配用户询问的节点。比如用户问你要看符合特定条件的「文章」你并不知道文章的节点类型是什么这个时候你就需要先列出所有的节点
あなたはneo4jクエリが得意なインテリジェントエージェントです。ユーザーからのクエリリクエストに対して、対応するデータベースードが何であるか必ずしも知っているわけではありません。その場合、まずすべてのードタイプをリストアップし、その中からユーザーの質問に最も一致すると考えるードを見つける必要があります。たとえば、ユーザーが特定の条件に合致する「記事」を見たいと尋ねた場合、記事ードのタイプが何であるか知らないので、まずすべてのードをリストアップする必要があります
```
点击保存,然后在【交互测试】中,重复刚才的问题
保存をクリックし、【インタラクティブテスト】で先ほどの質問を繰り返します
```
帮我找出最新的 10 条评论
最新の10件のコメントを見つけてください
```
模型的回答如下
規模言語モデルの回答は以下の通りです
<div align=center>
<img src="https://picx.zhimg.com/80/v2-ccf4a5ecb5691620fca659dcd60d2e38_1440w.png" style="width: 80%;"/>
</div>
诶?怎么说,是不是好了很多了?大模型成功找到了 BlogComment 这个节点,然后返回了对应的数据
どうでしょうずっと良くなったのではないでしょうか大規模言語モデルはBlogCommentードを正しく見つけ、対応するデータを返しました
但是其实还是不太对,因为我们要求的说最新的 10 条评论,但是大模型返回的其实是最早的 10 条评论,我们点开大模型的调用细节就能看到,大模型是通过 `ORDER BY comment.createdAt` 来实现的,但是问题是,在我们的数据库中,记录一条评论何时创建的字段并不是 createdAt而是 createdTime这意味着大模型并不知道自己不知道节点的字段从而产生了「幻觉」瞎输入了一个字段
しかし、まだ完全には正しくありません。なぜなら、私たちが要求したのは最新の10件のコメントですが、大規模言語モデルが返したのは実際には最も古い10件のコメントです。大規模言語モデルの呼び出しの詳細を開くと、大規模言語モデルは`ORDER BY comment.createdAt`を使用して実装していることがわかります。しかし、問題は、私たちのデータベースでは、コメントが作成された時間を記録するフィールドはcreatedAtではなく、createdTimeであることです。これは、大規模言語モデルがードのフィールドを知らないことを知らず、「幻覚」を起こし、適当なフィールドを入力したことを意味します
模型是不会显式说自己不知道的,锦恢研究生关于 OOD 的一项研究可以说明这件事的本质原因:[EDLEvidential Deep Learning 原理与代码实现](https://kirigaya.cn/blog/article?seq=154),如果阁下的好奇心能够配得上您的数学功底,可以一试这篇文章。总之,阁下只需要知道,正因为大模型对自己不知道的东西会产生幻觉,所以才有我们得以注入经验的操作空间
規模言語モデルは自分が知らないことを明示的に言うことはありません。錦恢研究生のOODに関する研究は、このことの本質的な理由を説明できます[EDLEvidential Deep Learning原理とコード実装](https://kirigaya.cn/blog/article?seq=154)。もしあなたの好奇心が数学の基礎力に匹敵するなら、この記事を試してみてください。とにかく、あなたが知っておくべきことは、大規模言語モデルが自分が知らないことに対して幻覚を起こすからこそ、私たちが経験を注入する操作の余地があるということです
### 4.5 教大模型找数据库节点的字段
### 4.5 大規模言語モデルにデータベースノードのフィールドを見つける方法を教える
通过上面的尝试,我们知道我们距离终点只剩一点了,那就是告诉大模型,我们的数据库中,记录一条评论何时创建的字段并不是 createdAt而是 createdTime
上記の試みを通じて、私たちは終点まであと少しであることを知りました。それは、大規模言語モデルに、私たちのデータベースでは、コメントが作成された時間を記録するフィールドはcreatedAtではなく、createdTimeであることを教えることです
对于识别字段的知识,我们改良一下刚刚的系统提示词下
フィールドを識別する知識について、先ほどのシステムプロンプトを改良します
```
你是一个善于进行neo4j查询的智能体对于用户要求的查询请求你并不一定知道对应的数据库节点是什么这个时候你需要先列出所有的节点类型然后从中找到你认为最有可能是匹配用户询问的节点。比如用户问你要看符合特定条件的「文章」你并不知道文章的节点类型是什么这个时候你就需要先列出所有的节点
あなたはneo4jクエリが得意なインテリジェントエージェントです。ユーザーからのクエリリクエストに対して、対応するデータベースードが何であるか必ずしも知っているわけではありません。その場合、まずすべてのードタイプをリストアップし、その中からユーザーの質問に最も一致すると考えるードを見つける必要があります。たとえば、ユーザーが特定の条件に合致する「記事」を見たいと尋ねた場合、記事ードのタイプが何であるか知らないので、まずすべてのードをリストアップする必要があります
对于比较具体的查询,你需要先查询单个事例来看一下当前类型有哪些字段。比如用户问你最新的文章,你是不知道文章节点的哪一个字段代表 「创建时间」的因此你需要先列出一到两个文章节点看一下里面有什么字段然后再创建查询查看最新的10篇文章
より具体的なクエリの場合、まず1つまたは2つの事例をクエリして、現在のタイプにどのようなフィールドがあるかを確認する必要があります。たとえば、ユーザーが最新の記事を尋ねた場合、記事ードのどのフィールドが「作成時間」を表すか知らないので、まず1つまたは2つの記事ードをリストアップし、その中にどのようなフィールドがあるかを確認し、その後、最新の10件の記事をクエリする必要があります
```
结果如下
結果は以下の通りです
<div align=center>
<img src="https://picx.zhimg.com/80/v2-e7a2faf43249fe108288604a2eb948ad_1440w.png" style="width: 80%;"/>
</div>
是不是很完美?
通过使用 openmcp 调试,我们可以通过 system prompt + mcp server 来唯一确定一个 agent 的表现行为。
## 5. 扩充 mcp 服务器的原子技能
在上面的例子中,虽然我们通过 system prompt 注入了我们的经验和知识,但是其实你会发现这些我们注入的行为,比如「查询所有节点类型」和「获取一个节点的所有字段」,是不是流程很固定?但是 system prompt 是通过自然语言编写的,它具有语言特有的模糊性,我们无法保证它一定是可以拓展的。那么除了 system prompt还有什么方法可以注入我们的经验与知识呢有的兄弟有的。
在这种流程固定,而且这个操作也非常地容易让「稍微有点经验的人」也能想到的情况下,除了使用 system prompt 外,我们还有一个方法可以做到更加标准化地注入知识,也就是把上面的这些个流程写成额外的 mcp tool。这个方法被我称为「原子化扩充」(Atomization Supplement)。
所谓原子化扩充,也就是增加额外的 mcp tool这些 tool 在功能层面是「原子化」的。
> 满足如下条件之一的 tool被称为 原子 tool (Atomic Tool)
> tool 无法由更加细粒度的功能通过有限组合得到
> 组成得到 tool 的更加细粒度的功能,大模型并不会完全使用,或者使用不可靠 (比如汇编语言,比如 DOM 查询)
扩充额外的原子 tool能够让大模型知道 “啊!我还有别的手段可以耍!” ,那么只要 description 比较恰当,大模型就能够使用它们来获得额外的信息,而不是产生「幻觉」让任务失败。
对于上面的一整套流程,我们目前知道了如下两个技能大模型是会产生「幻觉」的:
1. 获取一个节点类别的标签(询问评论,大模型没说自己不知道什么是评论标签,而是直接使用了 Comment但是实际的评论标签是 BlogComment
2. 获取一个节点类别的字段(询问最新评论,大模型选择通过 createAt 排序,但是记录 BlogComment 创建时间的字段是 createTime
在之前,我们通过了 system prompt 来完成了信息的注入,现在,丢弃你的 system prompt 吧!我们来玩点更加有趣的游戏。在刚刚的 util.go 中,我们针对上面的两个幻觉,实现两个额外的函数 (经过测试cursor或者trae能完美生成下面的代码可以不用自己写)
```go
// 获取所有的节点类型
func GetAllNodeTypes() ([]string, error) {
cypher := "MATCH (n) RETURN DISTINCT labels(n) AS labels"
result, err := ExecuteReadOnlyCypherQuery(cypher)
if err!= nil {
return nil, err
}
var nodeTypes []string
for _, record := range result {
labels := record["labels"].([]any)
for _, label := range labels {
nodeTypes = append(nodeTypes, label.(string))
}
}
return nodeTypes, nil
}
// 获取一个节点的字段示范
func GetNodeFields(nodeType string) ([]string, error) {
cypher := fmt.Sprintf("MATCH (n:%s) RETURN keys(n) AS keys LIMIT 1", nodeType)
result, err := ExecuteReadOnlyCypherQuery(cypher)
if err!= nil {
return nil, err
}
var fields []string
for _, record := range result {
keys := record["keys"].([]any)
for _, key := range keys {
fields = append(fields, key.(string))
}
}
return fields, nil
}
```
在 main.go 中完成它们的 schema 的申明和 tool 的注册:
```go
// ... existing code ...
getAllNodeTypes := mcp.NewTool("getAllNodeTypes",
mcp.WithDescription("获取所有的节点类型"),
)
getNodeField := mcp.NewTool("getNodeField",
mcp.WithDescription("获取节点的字段"),
mcp.WithString("nodeLabel",
mcp.Required(),
mcp.Description("节点的标签"),
),
)
// 注册对应的工具到 schema 上
s.AddTool(getAllNodeTypes, func(ctx context.Context, request mcp.CallToolRequest) (*mcp.CallToolResult, error) {
result, err := util.GetAllNodeTypes()
fmt.Println(result)
if err != nil {
return mcp.NewToolResultText(""), err
}
return mcp.NewToolResultText(fmt.Sprintf("%v", result)), nil
})
s.AddTool(getNodeField, func(ctx context.Context, request mcp.CallToolRequest) (*mcp.CallToolResult, error) {
args, ok := request.Params.Arguments.(map[string]interface{})
if !ok {
return mcp.NewToolResultText(""), fmt.Errorf("invalid arguments type")
}
nodeLabel, ok := args["nodeLabel"].(string)
if !ok {
return mcp.NewToolResultText(""), fmt.Errorf("nodeLabel argument is not a string")
}
result, err := util.GetNodeFields(nodeLabel)
fmt.Println(result)
if err!= nil {
return mcp.NewToolResultText(""), err
}
return mcp.NewToolResultText(fmt.Sprintf("%v", result)), nil
})
// ... existing code ...
```
重新运行 sse 服务器,然后直接询问大模型,此时,我们取消使用 system prompt创建一个空的或者直接把当前的 prompt 删除),询问结果如下:
<div align=center>
<img src="https://picx.zhimg.com/80/v2-1e88f7d8e04b949040a02673c13d6462_1440w.png" style="width: 80%;"/>
</div>
可以看到,在没有 system prompt 的情况下,大模型成功执行了这个过程,非常完美。
## 总结
这期教程,带大家使用 go 走完了 mcp sse 的连接方式,并且做出了一个「只读 neo4j 数据库」的 mcp通过这个 mcp我们可以非常方便地用自然语言查询数据库的结果而不需要手动输入 cypher。
对于部分情况下,大模型因为「幻觉」问题而导致的任务失败,我们通过一步步有逻辑可遵循的方法论,完成了 system prompt 的调优和知识的封装。最终,通过范式化的原子化扩充的方式,将这些知识包装成了更加完善的 mcp 服务器。这样,任何人都可以直接使用你的 mcp 服务器来完成 neo4j 数据库的自然语言查询了。
最后,觉得 openmcp 好用的米娜桑,别忘了给我们的项目点个 starhttps://github.com/LSTM-Kirigaya/openmcp-client
想要和我进一步交流 OpenMCP 的朋友可以进入我们的交流群github 项目里面有)

View File

@ -1,28 +1,28 @@
---
next:
text: python 实现天气信息 mcp 服务器 (STDIO)
text: Pythonで実装した天気情報MCPサーバーSTDIO
link: '/plugin-tutorial/examples/python-simple-stdio'
---
# MCP 服务器开发案
# MCPサーバー開発事
## Python
- [python 实现天气信息 mcp 服务器 (STDIO)](./python-simple-stdio)
- [python 实现进行通用表单填充 的 mcp (STDIO)](./python-form-stdio)
- [python 实现基于 blender 的 mcp (STDIO)](./python-blender-stdio)
- [python 实现 cadence EDA 的 mcp (STDIO)](./python-cadence-stdio)
- 基于 ffmpeg mcp 实现通过对话的视频剪辑
- 基于 rag mcp 实现知识库的注入
- 实现 Stable Diffusion 的 MCP 服务器
- [Pythonで実装した天気情報MCPサーバーSTDIO](./python-simple-stdio)
- [Pythonで実装した汎用フォーム入力MCPSTDIO](./python-form-stdio)
- [Pythonで実装したBlenderベースのMCPSTDIO](./python-blender-stdio)
- [Pythonで実装したCadence EDA用MCPSTDIO](./python-cadence-stdio)
- FFmpegベースMCPによる対話型動画編集
- RAGベースMCPによるナレッジベース注入
- Stable Diffusion用MCPサーバーの実装
## Nodejs
- [typescript 实现基于 crawl4ai 的超级网页爬虫 mcp (STDIO)](./typescript-crawl4ai-stdio)
- [TypeScriptで実装したcrawl4aiベースの超機能ウェブクローラーMCPSTDIO](./typescript-crawl4ai-stdio)
## Go
- [go 实现 neo4j 的只读 mcp 服务器 (SSE)](./go-neo4j-sse)
- [Goで実装したNeo4j用読み取り専用MCPサーバーSSE](./go-neo4j-sse)
## Java
- [java 实现文档数据库的只读 mcp (HTTP)](./java-es-http)
- [Javaで実装したドキュメントデータベース用読み取り専用MCPHTTP](./java-es-http)
## 认证
- [SSE 方式的 OAuth2 认证 mcp 服务器示例](./sse-oauth2)
## 認証
- [SSE方式OAuth2認証MCPサーバー事例](./sse-oauth2)

View File

@ -1,56 +1,54 @@
# python 实现天气信息 mcp 服务器
# Pythonで実装する天気情報MCPサーバー
## hook
## フック
等等,开始前,先让我们看一个小例子,假设我下周要去明日方舟锈影新生的漫展,所以我想要知道周六杭州的天气,于是我问大模型周六的天气,结果大模型给了我如下的回复
待って、始める前に小さな例を見てみましょう。来週「アークナイツ」の「錆びた影、新生」コスプレイベントに行く予定なので、土曜日の杭州の天気を知りたいです。AIに土曜日の天気を聞くと、以下のような回答が返ってきました
<div align=center>
<img src="https://picx.zhimg.com/80/v2-4c623ac6897e12093535b0d9ed9cf242_1440w.png" style="width: 100%;"/>
</div>
这可不行,相信朋友们也经常遇到过这样的情况,大模型总是会“授人以渔”,但是有的时候,我们往往就是想要直接知道最终结果,特别是一些无聊的生活琐事
これはダメですね。皆さんもよくあると思いますが、AIは「魚の釣り方を教える」ことが多く、時には単に結果が知りたいだけの退屈な日常の用事もあります
其实实现天气预报的程序也很多啦,那么有什么方法可以把写好的天气预报的程序接入大模型,让大模型告诉我们真实的天气情况,从而选择明天漫展的穿搭选择呢
実際、天気予報を実装するプログラムはたくさんあります。では、完成した天気予報プログラムをAIに接続し、実際の天気を教えてもらって、明日のコスプレイベントの服装を選ぶにはどうすればよいでしょうか
如果直接写函数用 function calling 显得有点麻烦这里面涉及到很多麻烦的技术细节需要我们商榷比如大模型提供商的API调用呀任务循环的搭建呀文本渲染等等从而浪费我们宝贵的时间。而 MCP 给了我们救赎之道,今天这期教程,就教大家写一个简单的 MCP 服务器,可以让大模型拥有得知天气预报的能力
直接関数を書いてfunction callingを使うのは少し面倒です。AIプロバイダーのAPI呼び出しやタスクループの構築、テキストレンダリングなど、多くの技術的な詳細を検討する必要があり、貴重な時間を浪費します。MCPは私たちに救いの道を与えてくれます。今日のチュートリアルでは、簡単なMCPサーバーを書いて、AIに天気予報を知る能力を与える方法を教えます
## はじめに
👉 [前回のナビゲーション](https://zhuanlan.zhihu.com/p/32593727614)
## 前言
前回はMCPの基礎を簡単に説明しました。今回は、自分たちのMCPサーバーを開発し、既存のアプリケーション、サービス、ハードウェアなどをAIに接続します。これにより、AIからエンドアプリケーションへの最後の1キロメートルを完了します。
👉 [上篇导航](https://zhuanlan.zhihu.com/p/32593727614)
「工欲善其事、必先利其器」。よりエレガントで楽しくMCPサーバーを開発するために、開発プロセスでプログラムの変更を確認し、直接AIに接続してツールの有効性を検証できる優れたテストツールが必要です。
在上篇,我们简单讲解了 MCP 的基础,在这一篇,我们将正式开始着手开发我们自己的 MCP 服务器,从而将现成的应用,服务,硬件等等接入大模型。从而走完大模型到赋能终端应用的最后一公里。
そこで、私は最近オールインワンのMCPテスト開発ツール「OpenMCP」をオープンソース化しました。[全网第一个 MCP 服务器一体化开发测试软件 OpenMCP 发布!](https://zhuanlan.zhihu.com/p/1894785817186121106)
工欲善其事,必先利其器。为了更加优雅快乐地开发 MCP 服务器,我们需要一个比较好的测试工具,允许我们在开发的过程看到程序的变化,并且可以直接接入大模型验证工具的有效性。
> OpenMCP QQグループ 782833642
于是,我在前不久开源了一款一体化的 MCP 测试开发工具 —— OpenMCP[全网第一个 MCP 服务器一体化开发测试软件 OpenMCP 发布!](https://zhuanlan.zhihu.com/p/1894785817186121106)
OpenMCPオープンソースリンクhttps://github.com/LSTM-Kirigaya/openmcp-client
> OpenMCP QQ 群 782833642
スターをお願いします :D
OpenMCP 开源链接https://github.com/LSTM-Kirigaya/openmcp-client
### 最初のMCPプロジェクト
求个 star :D
前置きはこのくらいにして、コーディングを始めましょう :D
### 第一个 MCP 项目
vscodeやtraeを開く前に、基本的なuvツールをインストールします。uvはコミュニティで人気のバージョン管理ツールで、性能の良いcondaと考えてください。
事已至此,先 coding 吧 :D
在打开 vscode 或者 trae 之前,先安装基本的 uv 工具uv 是一款社区流行的版本管理工具,你只需要把它理解为性能更好的 conda 就行了。
我们先安装 uv如果您正在使用 anaconda一定要切换到 base 环境,再安装:
まずuvをインストールします。anacondaを使用している場合は、必ずbase環境に切り替えてからインストールしてください
```bash
pip install uv
```
安装完成后,运行 uv
インストールが完了したら、uvを実行します
```bash
uv
```
没有报错就说明成功。uv 只会将不可以复用的依赖安装在本地,所以使用 anaconda 的朋友不用担心uv 安装的依赖库会污染你的 base我们接下来使用 uv 来创建一个基础的 python 项目
エラーがなければ成功です。uvは再利用不可能な依存関係のみをローカルにインストールするので、anacondaユーザーは心配ありません。uvがインストールするライブラリがbaseを汚染することはありません。次にuvを使用して基本的なPythonプロジェクトを作成します
```bash
mkdir simple-mcp && cd simple-mcp
@ -58,20 +56,20 @@ uv init
uv add mcp "mcp[cli]"
```
然后我们打开 vscode 或者 trae在插件商城找到并下载 OpenMCP 插件
次にvscodeまたはtraeを開き、プラグインストアでOpenMCPプラグインを探してダウンロードします
<div align=center>
<img src="https://picx.zhimg.com/80/v2-525c4576398078547fdd6eeef26532aa_1440w.png" style="width: 100%;"/>
</div>
先制作一个 MCP 的最小程序
まずMCPの最小プログラムを作成します
文件simple_mcp.py
ファイルsimple_mcp.py
```python
from mcp.server.fastmcp import FastMCP
mcp = FastMCP('锦恢的 MCP Server', version="11.45.14")
mcp = FastMCP('錦恢の MCP Server', version="11.45.14")
@mcp.tool(
name='add',
@ -140,90 +138,85 @@ def summarize(text: str) -> str:
return f"请用一句话总结以下内容:\n\n{text}"
```
我们试着运行它:
実行してみます:
```bash
uv run mcp run simple_mcp.py
```
如果没有报错,但是卡住了,那么说明我们的依赖安装没有问题,按下 ctrl c 或者 ctrl z 退出即可
エラーがなく、止まっている場合は、依存関係のインストールに問題がないことを意味します。Ctrl+CまたはCtrl+Zで終了します
在阁下看起来,这些函数都简单到毫无意义,但是请相信我,我们总需要一些简单的例子来通往最终的系统
これらの関数は単純で意味がないように見えるかもしれませんが、最終的なシステムに至るまでには簡単な例が必要です
### Link, Start!
### リンク、スタート!
如果你下载了 OpenMCP 插件,那么此时你就能在打开的 python 编辑器的右上角看到 OpenMCP 的紫色图标,点击它就能启动 OpenMCP调试当前的 MCP 了
OpenMCPプラグインをダウンロードした場合、Pythonエディターの右上にOpenMCPの紫色のアイコンが表示されます。クリックするとOpenMCPが起動し、現在のMCPをデバッグできます
<div align=center>
<img src="https://picx.zhimg.com/80/v2-f67e000371095a755d2f0d613706d61c_1440w.png" style="width: 100%;"/>
</div>
默认是以 STDIO 的方式启动,默认运行如下的命令
デフォルトではSTDIOモードで起動し、以下のコマンドを実行します
```bash
uv run mcp run <当前打开的 python 文件的相对路径>
uv run mcp run <現在開いているPythonファイルの相対パス>
```
所以你需要保证已经安装了 mcp 脚手架,也就是 `uv add mcp "mcp[cli]"`
したがって、mcpスキャフォールディング`uv add mcp "mcp[cli]"`)がインストールされていることを確認する必要があります
打开后第一件事就是先看左下角连接状态,确保是绿色的,代表当前 OpenMCP 和你的 MCP 服务器已经握手成功
開いたらまず左下の接続状態を確認し、緑色であることを確認します。これはOpenMCPとMCPサーバーが正常にハンドシェイクしたことを意味します
<div align=center>
<img src="https://picx.zhimg.com/80/v2-c4ebbbfe98d51e8b6e7de6c6d1bceb2e_1440w.png" style="width: 100%;"/>
</div>
如果连接成功,此时连接上方还会显示你当前的 MCP 服务器的名字,光标移动上去还能看到版本号。这些信息由我们如下的代码定义
接続に成功すると、接続の上に現在のMCPサーバーの名前が表示され、カーソルを合わせるとバージョン番号が表示されます。この情報は以下のコードで定義されています
```python
mcp = FastMCP('锦恢的 MCP Server', version="11.45.14")
mcp = FastMCP('錦恢の MCP Server', version="11.45.14")
```
这在我们进行版本管理的时候会非常有用。请善用这套系统
バージョン管理時に非常に便利です。このシステムを活用してください
如果连接失败,可以点击左侧工具栏的第二个按钮,进入连接控制台,查看错误信息,或是手动调整连接命令:
接続に失敗した場合は、左側のツールバーの2番目のボタンをクリックして接続コンソールに入り、エラー情報を確認するか、手動で接続コマンドを調整します
<div align=center>
<img src="https://pic1.zhimg.com/80/v2-684190b98dbbb9a7bf0e8c8048bd1277_1440w.png" style="width: 100%;"/>
</div>
### 初识 OpenMCP
### OpenMCPの紹介
接下来,我来简单介绍一下 OpenMCP 的基本功能模块,如果一开始,你的屏幕里什么也没有,先点击上面的加号创建一个新的标签页,此处页面中会出现下图屏幕中的四个按钮
次に、OpenMCPの基本機能モジュールを簡単に紹介します。最初に画面に何も表示されていない場合は、上のプラス記号をクリックして新しいタブを作成します。このページには以下の4つのボタンが表示されます
<div align=center>
<img src="https://picx.zhimg.com/80/v2-3a4e8aa1ddaac632601532bb757a15ad_1440w.png?source=d16d100b" style="width: 100%;"/>
</div>
放大一点
拡大:
<div align=center>
<img src="https://picx.zhimg.com/80/v2-ecc0705ed534e2cf0bc748ecd95f5f22_1440w.png" style="width: 100%;"/>
</div>
前三个,资源、提词和工具,分别用于调试 MCP 中的三个对应项目,也就是 ResourcesPrompts 和 Tools这三个部分的使用基本和 MCP 官方的 Inspector 工具是一样的,那是自然,我就照着这几个抄的,诶嘿
最初の3つリソース、プロンプト、ツールは、MCPの3つの対応する項目Resources、Prompts、Toolsをデバッグするために使用されます。これらの部分の使用法は基本的にMCP公式のInspectorツールと同じです。もちろん、私はこれらを参考にしました、えへ
<div align=center>
<img src="https://pica.zhimg.com/80/v2-d767e782f667161442ea183f55ca49b1_1440w.png" style="width: 100%;"/>
</div>
然后第四个按钮「交互测试」,它是一个我开发的 MCP 客户端,其实就是一个对话窗口,你可以无缝衔接地直接在大模型中测试你当前的 MCP 服务器的功能函数
4番目のボタン「インタラクティブテスト」は、私が開発したMCPクライアントで、基本的にはチャットウィンドウです。現在のMCPサーバーの機能関数をAIでシームレスにテストできます
<div align=center>
<img src="https://picx.zhimg.com/80/v2-b59ee2d290e096343fb4659baf34cf57_1440w.png" style="width: 100%;"/>
</div>
現在はツールのサポートのみを一時的に提供しています。プロンプトとリソースについてはまだ考えがまとまっていませんリソースはツールとして扱えると思います。グループで一緒に議論しましょうQQグループ 782833642
目前我暂时只支持 tools 的支持,因为 prompts 和 resources 的我还没有想好resource 感觉就是可以当成一个 tool欢迎大家进群和我一起讨论QQ群 782833642
## 天気関数のデバッグを開始
### ツールのデバッグ
## 开始调试天气函数
### 工具调试
还记得我们一开始给的 mcp 的例子吗?我们可以通过 OpenMCP 来快速调试这里面写的函数,比如我们本期的目标,写一个天气预报的 MCP那么假设我们已经写好了一个天气预报的函数了我们把它封装成一个 tool
最初に示したMCPの例を覚えていますかOpenMCPを使用してこれらの関数を迅速にデバッグできます。今回の目標は天気予報MCPを作成することです。天気予報関数がすでに完成していると仮定し、それをツールとしてカプセル化します
```python
@mcp.tool(
@ -235,63 +228,63 @@ def get_weather(city: str) -> str:
return f"Weather in {city}: Sunny, 25°C"
```
当然它现在是没有意义的因为就算把黑龙江的城市ID输入它也返回 25 度,但是这些都不重要,我想要带阁下先走完整套流程。建立自上而下的感性认知比死抠细节更加容易让用户学懂
もちろん、今のところ意味はありません。黒龍江省の都市IDを入力しても25度と返しますが、これらの詳細は重要ではありません。まずはプロセス全体を体験し、トップダウンの理解を構築することがユーザーにとって学びやすいです
那么我们现在需要调试这个函数,打开 OpenMCP新建一个「工具」调试项目
この関数をデバッグする必要があります。OpenMCPを開き、新しい「ツール」デバッグプロジェクトを作成します
<div align=center>
<img src="https://picx.zhimg.com/80/v2-1c67ab54d67023e408413484768377cf_1440w.png" style="width: 100%;"/>
</div>
然后此时,你在左侧的列表可以看到 weather 这个工具,选择它,然后在右侧的输入框中随便输入一些东西,按下回车(或者点击「运行」),你能看到如下的响应
左側のリストにweatherツールが表示されます。選択し、右側の入力ボックスに何かを入力し、Enterまたは「実行」をクリックを押すと、以下の応答が表示されます
<div align=center>
<img src="https://picx.zhimg.com/80/v2-d32a9c0d9fcab497dc03152a72c4c62b_1440w.png" style="width: 100%;"/>
</div>
看到我们函数 return 的字符串传过来了,说明没问题,链路通了
関数が返す文字列が表示され、問題なくリンクが機能していることがわかります
### 交互测试
### インタラクティブテスト
诶?我知道你编程很厉害,但是,在噼里啪啦快速写完天气预报爬虫前,我们现在看看我们要如何把已经写好的工具注入大模型对话中。为了使用大模型,我们需要先选择大模型和对应的 API点击左侧工具栏的第三个按钮进入 API 模块,选择你想要使用的大模型运营商、模型,填写 API token然后点击下面的「保存」
プログラミングは得意かもしれませんが、天気予報クローラーを素早く作成する前に、作成したツールをAIチャットに注入する方法を見てみましょう。AIを使用するには、まずAIプロバイダーと対応するAPIを選択する必要があります。左側のツールバーの3番目のボタンをクリックしてAPIモジュールに入り、使用するAIプロバイダーとモデルを選択し、APIトークンを入力して「保存」をクリックします
<div align=center>
<img src="https://pic1.zhimg.com/80/v2-367780b204d2aa50354585272b71af20_1440w.png" style="width: 100%;"/>
</div>
再新建一个标签页,选择「交互测试」,此时,我们就可以直接和大模型对话了,我们先看看没有任何工具注入的大模型会如何回应天气预报的问题,点击最下侧工具栏从左往右第三个按钮,进入工具选择界面,选择「禁用所有工具」
新しいタブを作成し、「インタラクティブテスト」を選択します。これで直接AIとチャットできます。まずツールを注入しないAIが天気予報の質問にどのように応答するか見てみましょう。下部のツールバーの左から3番目のボタンをクリックしてツール選択インターフェースに入り、「すべてのツールを無効にする」を選択します
<div align=center>
<img src="https://pic1.zhimg.com/80/v2-977a53ea14eae5e1a646fc73d379a422_1440w.png" style="width: 100%;"/>
</div>
点击「关闭」后,我们问大模型一个问题
「閉じる」をクリックした後、AIに質問します
```
请问杭州的温度是多少
杭州の気温は何度ですか
```
<div align=center>
<img src="https://pic1.zhimg.com/80/v2-d3aa56602f574a6968295f9a5c93438f_1440w.png" style="width: 100%;"/>
</div>
可以看到,大模型给出了和文章开头一样的回答。非常敷衍,因为它确实无法知道
冒頭と同じ回答が返ってきました。非常に形式的で、実際には知らないからです
此处我们再单独打开「weather」工具
ここで、「weather」ツールを単独で有効にします
<div align=center>
<img src="https://picx.zhimg.com/80/v2-2ed66eaff604d11d52f60201fca215d4_1440w.png" style="width: 100%;"/>
</div>
问出相同的问题
同じ質問をします
<div align=center>
<img src="https://picx.zhimg.com/80/v2-e934d386e20b1de43fb5e0dd426de86e_1440w.png" style="width: 100%;"/>
</div>
可以看到,大模型给出了回答是 25 度,还有一些额外的推导信息
25度という回答と追加の推論情報が返ってきました
我们不妨关注一些细节,首先,大模型并不会直接回答问题,而是会先去调用 weather 这个工具,调用参数为
いくつかの詳細に注目しましょう。まず、AIは直接質問に答えず、weatherツールを呼び出します。呼び出しパラメータは
```json
{
@ -299,138 +292,30 @@ def get_weather(city: str) -> str:
}
```
然后,我们的 MCP 服务器给出了响应
そして、MCPサーバーは以下の応答を返します
```
Weather in 杭州: Sunny, 25°C
```
从而,最终大模型才根据这些信息给出了最终的回答。也就是,这个过程我们实际调用了两次大模型的服务。而且可以看到两次调用的输入 token 数量都非常大,这是因为 OpenMCP 会将函数调用以 JSON Schema 的形式注入到请求参数中weather 这个工具的 JSON Schema 如下图的右侧的 json 所示
最終的にAIはこの情報に基づいて回答を生成します。つまり、このプロセスでは実際に2回AIサービスを呼び出しています。また、2回の呼び出しの入力トークン数が非常に多いことがわかります。これはOpenMCPが関数呼び出しをJSONスキーマとしてリクエストパラメータに注入するためです。weatherツールのJSONスキーマは以下の図の右側のjsonのようになります
<div align=center>
<img src="https://picx.zhimg.com/80/v2-2ed66eaff604d11d52f60201fca215d4_1440w.png" style="width: 100%;"/>
</div>
然后支持 openai 协议的大模型厂商都会针对这样的信息进行 function calling所以使用了工具的大模型请求的输入 token 数量都会比较大。但是不需要担心,大部分厂商都实现了 KV Cache对相同前缀的输入存在缓存缓存命中部分的费用开销是显著低于普通的 输入输出 token 价格的。OpenMCP 在每个回答的下面都表明了当次请求的 输入 token输出 token总 token 和 缓存命中率
OpenAIプロトコルをサポートするAIプロバイダーは、このような情報に対してfunction callingを行います。そのため、ツールを使用するAIリクエストの入力トークン数は多くなります。しかし、心配する必要はありません。ほとんどのプロバイダーはKVキャッシュを実装しており、同じプレフィックスの入力に対してキャッシュがあり、キャッシュヒット部分のコストは通常の入力出力トークン価格よりも大幅に低くなります。OpenMCPは各回答の下に、現在のリクエストの入力トークン、出力トークン、総トークン、キャッシュヒット率を示しています
其中
ここで:
- 「总 token」 = 「输入 token」 + 「输出 token
- 「総トークン」=「入力トークン」+「出力トークン
- 「缓存命中率」 = 「缓存命令的 token」 / 「输入 token
- 「キャッシュヒット率」=「キャッシュヒットトークン」/「入力トークン
> 没错,缓存命中率 是对于输入 token 的概念,输出 token 是没有 缓存命中率这个说法的
> はい、キャッシュヒット率は入力トークンの概念で、出力トークンにはキャッシュヒット率という概念はありません
在后续的开发中,你可以根据这些信息来针对性地对你的服务或者 prompt 进行调优
今後の開発では、この情報に基づいてサービスやプロンプトを最適化できます
### 完成一个真正的天气预报吧
### 実際の天気予報を完成させましょう
当然,这些代码也非常简单,直接让大模型生成就行了(其实大模型是无法生成免 API 的 python 获取天气的代码的,我是直接让大模型把我个人网站上天气预报的 go 函数翻译了一下)
我直接把函数贴上来了:
```python
import requests
import json
from typing import NamedTuple, Optional
class CityWeather(NamedTuple):
city_name_en: str
city_name_cn: str
city_code: str
temp: str
wd: str
ws: str
sd: str
aqi: str
weather: str
def get_city_weather_by_city_name(city_code: str) -> Optional[CityWeather]:
"""根据城市名获取天气信息"""
if not city_code:
print(f"找不到{city_code}对应的城市")
return None
try:
# 构造请求URL
url = f"http://d1.weather.com.cn/sk_2d/{city_code}.html"
# 设置请求头
headers = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/115.0.0.0 Safari/537.36 Edg/115.0.0.0",
"Host": "d1.weather.com.cn",
"Referer": "http://www.weather.com.cn/"
}
# 发送HTTP请求
response = requests.get(url, headers=headers)
response.raise_for_status()
# 解析JSON数据
# 解析JSON数据前先处理编码问题
content = response.text.encode('latin1').decode('unicode_escape')
json_start = content.find("{")
json_str = content[json_start:]
weather_data = json.loads(json_str)
# 构造返回对象
return CityWeather(
city_name_en=weather_data.get("nameen", ""),
city_name_cn=weather_data.get("cityname", "").encode('latin1').decode('utf-8'),
city_code=weather_data.get("city", ""),
temp=weather_data.get("temp", ""),
wd=weather_data.get("wd", "").encode('latin1').decode('utf-8'),
ws=weather_data.get("ws", "").encode('latin1').decode('utf-8'),
sd=weather_data.get("sd", ""),
aqi=weather_data.get("aqi", ""),
weather=weather_data.get("weather", "").encode('latin1').decode('utf-8')
)
except Exception as e:
print(f"获取天气信息失败: {str(e)}")
return None
from mcp.server.fastmcp import FastMCP
mcp = FastMCP('weather', version="0.0.1")
@mcp.tool(
name='get_weather_by_city_code',
description='根据城市天气预报的城市编码 (int),获取指定城市的天气信息'
)
def get_weather_by_code(city_code: int) -> str:
"""模拟天气查询协议,返回格式化字符串"""
city_weather = get_city_weather_by_city_name(city_code)
return str(city_weather)
```
这里有几个点一定要注意:
1. 如果你的输入参数是数字,就算是城市编码这种比较长的数字,请一定定义成 int因为 mcp 底层的是要走 JSON 正反序列化的,而 "114514" 这样的字符串会被 JSON 反序列化成 114514而不是 "114514" 这个字符串。你实在要用 str 来表示一个很长的数字,那么就在前面加一个前缀,比如 "code-114514",避免被反序列化成数字,从而触发 mcp 内部的 type check error
2. tool 的 name 请按照 python 的变量命名要求进行命名,否则部分大模型厂商会给你报错。
好,我们先测试一下:
<div align=center>
<img src="https://picx.zhimg.com/80/v2-d2dbe925010b676482ee57258c14fca7_1440w.png" style="width: 100%;"/>
</div>
可以看到,我们的天气查询工具已经可以正常工作了。
那么接下来,我们就可以把这个工具注入到大模型中了。点击 「交互测试」,只激活当前这个工具,然后询问大模型:
```
请问杭州的天气是多少?
```
<div align=center>
<img src="https://picx.zhimg.com/80/v2-e581c6461190b358adda50ce83633520_1440w.png" style="width: 100%;"/>
</div>
完美!
如此,我们便完成了一个天气查询工具的开发。并且轻松地注入到了我们的大模型中。在实际提供商业级部署方案的时候,虽然 mcp 目前的 stdio 冷启动速度足够快但是考虑到拓展性等多方面因素SSE 还是我们首选的连接方案,关于 SSE 的使用,我们下期再聊。
OpenMCP 开源链接https://github.com/LSTM-Kirigaya/openmcp-client
もちろん、このコードも非常に簡単で、直接AIに生成させることができます

View File

@ -1,58 +1,56 @@
# python 实现天气信息 mcp 服务器
# Pythonで天気情報MCPサーバーを実装
[本期教程视频](https://www.bilibili.com/video/BV1zYGozgEHc)
[今回のチュートリアル動画](https://www.bilibili.com/video/BV1zYGozgEHc)
## hook
## フック
等等,开始前,先让我们看一个小例子,假设我下周要去明日方舟锈影新生的漫展,所以我想要知道周六杭州的天气,于是我问大模型周六的天气,结果大模型给了我如下的回复
さて、始める前に小さな例を見てみましょう。来週「アークナイツ」の「錆影新生」コスプレイベントに行く予定なので、土曜日の杭州の天気を知りたいと思い、AIに土曜日の天気を聞きました。するとAIは以下のような返答をしました
<div align=center>
<img src="https://picx.zhimg.com/80/v2-4c623ac6897e12093535b0d9ed9cf242_1440w.png" style="width: 100%;"/>
</div>
这可不行,相信朋友们也经常遇到过这样的情况,大模型总是会“授人以渔”,但是有的时候,我们往往就是想要直接知道最终结果,特别是一些无聊的生活琐事
これは困ります。皆さんもよくあると思いますが、AIは「魚の釣り方を教える」ことが多く、時には単に最終結果を知りたいだけのとき、特に些細な日常の質問に対してはそう感じます
其实实现天气预报的程序也很多啦,那么有什么方法可以把写好的天气预报的程序接入大模型,让大模型告诉我们真实的天气情况,从而选择明天漫展的穿搭选择呢
実際、天気予報を実装するプログラムはたくさんあります。では、作成した天気予報プログラムをAIに接続し、実際の天気を教えてもらい、明日のコスプレイベントの服装を決める方法はないでしょうか
如果直接写函数用 function calling 显得有点麻烦这里面涉及到很多麻烦的技术细节需要我们商榷比如大模型提供商的API调用呀任务循环的搭建呀文本渲染等等从而浪费我们宝贵的时间。而 MCP 给了我们救赎之道,今天这期教程,就教大家写一个简单的 MCP 服务器,可以让大模型拥有得知天气预报的能力
直接関数を書いてfunction callingを使うのは少し面倒です。AIプロバイダーのAPI呼び出しやタスクループの構築、テキストレンダリングなど、多くの技術的な詳細を検討する必要があり、貴重な時間を浪費します。MCPは私たちに救いの道を与えてくれました。今回のチュートリアルでは、簡単なMCPサーバーを作成し、AIに天気予報を知る能力を与える方法を教えます
## はじめに
👉 [前回のナビゲーション](https://zhuanlan.zhihu.com/p/32593727614)
## 前言
前回はMCPの基礎を簡単に説明しました。今回は、独自のMCPサーバーの開発を開始し、既存のアプリケーション、サービス、ハードウェアなどをAIに接続します。これにより、AIからエンドユーザーアプリケーションへの最後の1キロメートルを完了します。
👉 [上篇导航](https://zhuanlan.zhihu.com/p/32593727614)
「工欲善其事、必先利其器」。よりエレガントで楽しいMCPサーバー開発のために、開発プロセスでプログラムの変更を確認し、直接AIに接続してツールの有効性を検証できる優れたテストツールが必要です。
在上篇,我们简单讲解了 MCP 的基础,在这一篇,我们将正式开始着手开发我们自己的 MCP 服务器,从而将现成的应用,服务,硬件等等接入大模型。从而走完大模型到赋能终端应用的最后一公里。
そこで、私は最近、統合型MCPテスト開発ツール「OpenMCP」をオープンソース化しました。[初のMCPサーバー統合開発テストソフトウェアOpenMCPリリース](https://zhuanlan.zhihu.com/p/1894785817186121106)
工欲善其事,必先利其器。为了更加优雅快乐地开发 MCP 服务器,我们需要一个比较好的测试工具,允许我们在开发的过程看到程序的变化,并且可以直接接入大模型验证工具的有效性。
> OpenMCP QQグループ 782833642
于是,我在前不久开源了一款一体化的 MCP 测试开发工具 —— OpenMCP[全网第一个 MCP 服务器一体化开发测试软件 OpenMCP 发布!](https://zhuanlan.zhihu.com/p/1894785817186121106)
OpenMCPオープンソースリンクhttps://github.com/LSTM-Kirigaya/openmcp-client
> OpenMCP QQ 群 782833642
スターをお願いします :D
OpenMCP 开源链接https://github.com/LSTM-Kirigaya/openmcp-client
### 最初のMCPプロジェクト
求个 star :D
前置きはこのくらいにして、コーディングを始めましょう :D
### 第一个 MCP 项目
vscodeやtraeを開く前に、基本的なuvツールをインストールします。uvはコミュニティで人気のバージョン管理ツールで、性能の良いcondaと理解してください。
事已至此,先 coding 吧 :D
在打开 vscode 或者 trae 之前,先安装基本的 uv 工具uv 是一款社区流行的版本管理工具,你只需要把它理解为性能更好的 conda 就行了。
我们先安装 uv如果您正在使用 anaconda一定要切换到 base 环境,再安装:
まずuvをインストールします。anacondaを使用している場合は、必ずbase環境に切り替えてからインストールしてください
```bash
pip install uv
```
安装完成后,运行 uv
インストールが完了したら、uvを実行します
```bash
uv
```
没有报错就说明成功。uv 只会将不可以复用的依赖安装在本地,所以使用 anaconda 的朋友不用担心uv 安装的依赖库会污染你的 base我们接下来使用 uv 来创建一个基础的 python 项目
エラーがなければ成功です。uvは再利用不可能な依存関係のみをローカルにインストールするため、anacondaを使用している方は心配ありません。uvがインストールするライブラリがbaseを汚染することはありません。次に、uvを使用して基本的なpythonプロジェクトを作成します
```bash
mkdir simple-mcp && cd simple-mcp
@ -60,24 +58,24 @@ uv init
uv add mcp "mcp[cli]"
```
然后我们打开 vscode 或者 trae在插件商城找到并下载 OpenMCP 插件
次にvscodeまたはtraeを開き、プラグイン市場でOpenMCPプラグインを探してダウンロードします
<div align=center>
<img src="https://picx.zhimg.com/80/v2-525c4576398078547fdd6eeef26532aa_1440w.png" style="width: 100%;"/>
</div>
先制作一个 MCP 的最小程序
まずMCPの最小プログラムを作成します
文件simple_mcp.py
ファイルsimple_mcp.py
```python
from mcp.server.fastmcp import FastMCP
mcp = FastMCP('锦恢的 MCP Server', version="11.45.14")
mcp = FastMCP('錦恢の MCP Server', version="11.45.14")
@mcp.tool(
name='add',
description='对两个数字进行实数域的加法'
description='2つの数値の実数領域での加算'
)
def add(a: int, b: int) -> int:
return a + b
@ -85,215 +83,210 @@ def add(a: int, b: int) -> int:
@mcp.resource(
uri="greeting://{name}",
name='greeting',
description='用于演示的一个资源协议'
description='デモンストレーション用のリソースプロトコル'
)
def get_greeting(name: str) -> str:
# 访问处理 greeting://{name} 资源访问协议,然后返回
# 此处方便起见,直接返回一个 Hellobalabala 了
# greeting://{name}リソースアクセスプロトコルを処理し、返す
# ここでは簡単のため、直接Helloを返す
return f"Hello, {name}!"
@mcp.prompt(
name='translate',
description='进行翻译的prompt'
description='翻訳用のプロンプト'
)
def translate(message: str) -> str:
return f'请将下面的话语翻译成中文\n\n{message}'
return f'以下の文章を中国語に翻訳してください\n\n{message}'
@mcp.tool(
name='weather',
description='获取指定城市的天气信息'
description='指定都市の天気情報を取得'
)
def get_weather(city: str) -> str:
"""模拟天气查询协议,返回格式化字符串"""
"""天気予報プロトコルをシミュレートし、フォーマットされた文字列を返す"""
return f"Weather in {city}: Sunny, 25°C"
@mcp.resource(
uri="user://{user_id}",
name='user_profile',
description='获取用户基本信息'
description='ユーザー基本情報を取得'
)
def get_user_profile(user_id: str) -> dict:
"""模拟用户协议,返回字典数据"""
"""ユーザープロトコルをシミュレートし、辞書データを返す"""
return {
"id": user_id,
"name": "三",
"name": "三",
"role": "developer"
}
@mcp.resource(
uri="book://{isbn}",
name='book_info',
description='通过ISBN查询书籍信息'
description='ISBNで書籍情報を検索'
)
def get_book_info(isbn: str) -> dict:
"""模拟书籍协议,返回结构化数据"""
"""書籍プロトコルをシミュレートし、構造化データを返す"""
return {
"isbn": isbn,
"title": "Python编程:从入门到实践",
"title": "Pythonプログラミング:入門から実践まで",
"author": "Eric Matthes"
}
@mcp.prompt(
name='summarize',
description='生成文本摘要的提示词模板'
description='テキスト要約のプロンプトテンプレート'
)
def summarize(text: str) -> str:
"""返回摘要生成提示词"""
return f"请用一句话总结以下内容:\n\n{text}"
"""要約生成プロンプトを返す"""
return f"以下内容を一言で要約してください\n\n{text}"
```
我们试着运行它:
実行してみます:
```bash
uv run mcp run simple_mcp.py
```
如果没有报错,但是卡住了,那么说明我们的依赖安装没有问题,按下 ctrl c 或者 ctrl z 退出即可
エラーがなく、止まっている場合は、依存関係のインストールに問題がないことを意味します。ctrl cまたはctrl zで終了してください
在阁下看起来,这些函数都简单到毫无意义,但是请相信我,我们总需要一些简单的例子来通往最终的系统
これらの関数は単純で意味がないように見えるかもしれませんが、最終的なシステムに到達するためには、簡単な例が必要です
### Link, Start!
### リンク、スタート!
如果你下载了 OpenMCP 插件,那么此时你就能在打开的 python 编辑器的右上角看到 OpenMCP 的紫色图标,点击它就能启动 OpenMCP调试当前的 MCP 了
OpenMCPプラグインをダウンロードした場合、pythonエディタの右上にOpenMCPの紫色のアイコンが表示されます。クリックするとOpenMCPが起動し、現在のMCPをデバッグできます
<div align=center>
<img src="https://picx.zhimg.com/80/v2-f67e000371095a755d2f0d613706d61c_1440w.png" style="width: 100%;"/>
</div>
默认是以 STDIO 的方式启动,默认运行如下的命令
デフォルトではSTDIOモードで起動し、以下のコマンドを実行します
```bash
uv run mcp run <当前打开的 python 文件的相对路径>
uv run mcp run <現在開いているpythonファイルの相対パス>
```
所以你需要保证已经安装了 mcp 脚手架,也就是 `uv add mcp "mcp[cli]"`
したがって、mcpスキャフォールド`uv add mcp "mcp[cli]"`)がインストールされていることを確認してください
打开后第一件事就是先看左下角连接状态,确保是绿色的,代表当前 OpenMCP 和你的 MCP 服务器已经握手成功
開いたらまず左下の接続状態を確認し、緑色であることを確認します。これはOpenMCPとMCPサーバーが正常にハンドシェイクしたことを示します
<div align=center>
<img src="https://picx.zhimg.com/80/v2-c4ebbbfe98d51e8b6e7de6c6d1bceb2e_1440w.png" style="width: 100%;"/>
</div>
如果连接成功,此时连接上方还会显示你当前的 MCP 服务器的名字,光标移动上去还能看到版本号。这些信息由我们如下的代码定义
接続に成功すると、接続の上に現在のMCPサーバーの名前が表示され、カーソルを合わせるとバージョン番号が表示されます。この情報は以下のコードで定義されます
```python
mcp = FastMCP('锦恢的 MCP Server', version="11.45.14")
mcp = FastMCP('錦恢の MCP Server', version="11.45.14")
```
这在我们进行版本管理的时候会非常有用。请善用这套系统
これはバージョン管理時に非常に便利です。このシステムを活用してください
如果连接失败,可以点击左侧工具栏的第二个按钮,进入连接控制台,查看错误信息,或是手动调整连接命令:
接続に失敗した場合は、左側のツールバーの2番目のボタンをクリックして接続コンソールに入り、エラーメッセージを確認するか、手動で接続コマンドを調整します
<div align=center>
<img src="https://pic1.zhimg.com/80/v2-684190b98dbbb9a7bf0e8c8048bd1277_1440w.png" style="width: 100%;"/>
</div>
### 初识 OpenMCP
### OpenMCPの紹介
接下来,我来简单介绍一下 OpenMCP 的基本功能模块,如果一开始,你的屏幕里什么也没有,先点击上面的加号创建一个新的标签页,此处页面中会出现下图屏幕中的四个按钮
次に、OpenMCPの基本機能モジュールを簡単に紹介します。最初に画面に何も表示されていない場合は、上のプラス記号をクリックして新しいタブを作成します。このページには以下の4つのボタンが表示されます
<div align=center>
<img src="https://picx.zhimg.com/80/v2-3a4e8aa1ddaac632601532bb757a15ad_1440w.png?source=d16d100b" style="width: 100%;"/>
</div>
放大一点
拡大:
<div align=center>
<img src="https://picx.zhimg.com/80/v2-ecc0705ed534e2cf0bc748ecd95f5f22_1440w.png" style="width: 100%;"/>
</div>
前三个,资源、提词和工具,分别用于调试 MCP 中的三个对应项目,也就是 ResourcesPrompts 和 Tools这三个部分的使用基本和 MCP 官方的 Inspector 工具是一样的,那是自然,我就照着这几个抄的,诶嘿
最初の3つ、リソース、プロンプト、ツールは、MCP内の対応する項目Resources、Prompts、Toolsをデバッグするために使用されます。これらの部分の使用法は基本的にMCP公式のInspectorツールと同じです。もちろん、私はこれらを参考にしました
<div align=center>
<img src="https://pica.zhimg.com/80/v2-d767e782f667161442ea183f55ca49b1_1440w.png" style="width: 100%;"/>
</div>
然后第四个按钮「交互测试」,它是一个我开发的 MCP 客户端,其实就是一个对话窗口,你可以无缝衔接地直接在大模型中测试你当前的 MCP 服务器的功能函数
4番目のボタン「インタラクティブテスト」は、私が開発したMCPクライアントで、基本的にはダイアログウィンドウです。現在のMCPサーバーの機能関数をAIで直接テストできます
<div align=center>
<img src="https://picx.zhimg.com/80/v2-b59ee2d290e096343fb4659baf34cf57_1440w.png" style="width: 100%;"/>
</div>
現在はツールのサポートのみを提供しています。プロンプトとリソースについてはまだ考えがまとまっていませんリソースはツールとして扱えると思います。グループで一緒に議論しましょうQQグループ 782833642
目前我暂时只支持 tools 的支持,因为 prompts 和 resources 的我还没有想好resource 感觉就是可以当成一个 tool欢迎大家进群和我一起讨论QQ群 782833642
## 天気関数のデバッグを開始
### ツールデバッグ
## 开始调试天气函数
### 工具调试
还记得我们一开始给的 mcp 的例子吗?我们可以通过 OpenMCP 来快速调试这里面写的函数,比如我们本期的目标,写一个天气预报的 MCP那么假设我们已经写好了一个天气预报的函数了我们把它封装成一个 tool
最初に示したMCPの例を覚えていますかOpenMCPを使用して、これらの関数を迅速にデバッグできます。今回の目標は、天気予報MCPを作成することです。天気予報関数がすでに作成されていると仮定し、それをツールとしてカプセル化します
```python
@mcp.tool(
name='weather',
description='获取指定城市的天气信息'
description='指定都市の天気情報を取得'
)
def get_weather(city: str) -> str:
"""模拟天气查询协议,返回格式化字符串"""
"""天気予報プロトコルをシミュレートし、フォーマットされた文字列を返す"""
return f"Weather in {city}: Sunny, 25°C"
```
当然它现在是没有意义的因为就算把黑龙江的城市ID输入它也返回 25 度,但是这些都不重要,我想要带阁下先走完整套流程。建立自上而下的感性认知比死抠细节更加容易让用户学懂
もちろん、今のところ意味はありません。黒龍江省の都市IDを入力しても25度を返しますが、これは重要ではありません。まず全体のプロセスを理解することが重要です。詳細にこだわるよりも、トップダウンで感覚的な理解を構築する方がユーザーにとって学びやすいです
那么我们现在需要调试这个函数,打开 OpenMCP新建一个「工具」调试项目
この関数をデバッグするには、OpenMCPを開き、新しい「ツール」デバッグプロジェクトを作成します
<div align=center>
<img src="https://picx.zhimg.com/80/v2-1c67ab54d67023e408413484768377cf_1440w.png" style="width: 100%;"/>
</div>
然后此时,你在左侧的列表可以看到 weather 这个工具,选择它,然后在右侧的输入框中随便输入一些东西,按下回车(或者点击「运行」),你能看到如下的响应
左側のリストにweatherツールが表示されます。それを選択し、右側の入力ボックスに何かを入力してEnterまたは「実行」をクリックを押すと、以下の応答が表示されます
<div align=center>
<img src="https://picx.zhimg.com/80/v2-d32a9c0d9fcab497dc03152a72c4c62b_1440w.png" style="width: 100%;"/>
</div>
看到我们函数 return 的字符串传过来了,说明没问题,链路通了
関数が返す文字列が表示され、問題なくリンクが機能していることがわかります
### 交互测试
### インタラクティブテスト
诶?我知道你编程很厉害,但是,在噼里啪啦快速写完天气预报爬虫前,我们现在看看我们要如何把已经写好的工具注入大模型对话中。为了使用大模型,我们需要先选择大模型和对应的 API点击左侧工具栏的第三个按钮进入 API 模块,选择你想要使用的大模型运营商、模型,填写 API token然后点击下面的「保存」
プログラミングは得意かもしれませんが、天気予報クローラーを素早く作成する前に、作成したツールをAIダイアログに注入する方法を見てみましょう。AIを使用するには、まずAIモデルと対応するAPIを選択する必要があります。左側のツールバーの3番目のボタンをクリックしてAPIモジュールに入り、使用するAIモデルプロバイダー、モデルを選択し、APIトークンを入力して「保存」をクリックします
<div align=center>
<img src="https://pic1.zhimg.com/80/v2-367780b204d2aa50354585272b71af20_1440w.png" style="width: 100%;"/>
</div>
再新建一个标签页,选择「交互测试」,此时,我们就可以直接和大模型对话了,我们先看看没有任何工具注入的大模型会如何回应天气预报的问题,点击最下侧工具栏从左往右第三个按钮,进入工具选择界面,选择「禁用所有工具」
新しいタブを作成し、「インタラクティブテスト」を選択します。これで直接AIと対話できます。まずツールを注入せずにAIが天気予報の質問にどのように応答するかを見てみましょう。下部のツールバーの左から3番目のボタンをクリックしてツール選択インターフェースに入り、「すべてのツールを無効にする」を選択します
<div align=center>
<img src="https://pic1.zhimg.com/80/v2-977a53ea14eae5e1a646fc73d379a422_1440w.png" style="width: 100%;"/>
</div>
点击「关闭」后,我们问大模型一个问题
「閉じる」をクリックした後、AIに質問します
```
请问杭州的温度是多少
杭州の気温は何度ですか
```
<div align=center>
<img src="https://pic1.zhimg.com/80/v2-d3aa56602f574a6968295f9a5c93438f_1440w.png" style="width: 100%;"/>
</div>
可以看到,大模型给出了和文章开头一样的回答。非常敷衍,因为它确实无法知道
AIは記事の冒頭と同じ回答をしました。非常に形式的で、実際には知らないからです
此处我们再单独打开「weather」工具
ここで、「weather」ツールを個別に有効にします
<div align=center>
<img src="https://picx.zhimg.com/80/v2-2ed66eaff604d11d52f60201fca215d4_1440w.png" style="width: 100%;"/>
</div>
问出相同的问题
同じ質問をします
<div align=center>
<img src="https://picx.zhimg.com/80/v2-e934d386e20b1de43fb5e0dd426de86e_1440w.png" style="width: 100%;"/>
</div>
可以看到,大模型给出了回答是 25 度,还有一些额外的推导信息
AIは25度と回答し、追加の推論情報も提供しました
我们不妨关注一些细节,首先,大模型并不会直接回答问题,而是会先去调用 weather 这个工具,调用参数为
いくつかの詳細に注目しましょう。まず、AIは直接質問に答えず、weatherツールを呼び出します。呼び出しパラメータは
```json
{
@ -301,138 +294,16 @@ def get_weather(city: str) -> str:
}
```
然后,我们的 MCP 服务器给出了响应
そして、MCPサーバーは以下の応答を返します
```
Weather in 杭州: Sunny, 25°C
```
从而,最终大模型才根据这些信息给出了最终的回答。也就是,这个过程我们实际调用了两次大模型的服务。而且可以看到两次调用的输入 token 数量都非常大,这是因为 OpenMCP 会将函数调用以 JSON Schema 的形式注入到请求参数中weather 这个工具的 JSON Schema 如下图的右侧的 json 所示
これに基づいて、AIは最終的な回答を提供します。つまり、このプロセスでは実際に2回AIサービスを呼び出しています。また、2回の呼び出しの入力トークン数が非常に多いことがわかります。これはOpenMCPが関数呼び出しをJSONスキーマ形式でリクエストパラメータに注入するためです。weatherツールのJSONスキーマは以下の図の右側のjsonのようになります
<div align=center>
<img src="https://picx.zhimg.com/80/v2-2ed66eaff604d11d52f60201fca215d4_1440w.png" style="width: 100%;"/>
</div>
然后支持 openai 协议的大模型厂商都会针对这样的信息进行 function calling所以使用了工具的大模型请求的输入 token 数量都会比较大。但是不需要担心,大部分厂商都实现了 KV Cache对相同前缀的输入存在缓存缓存命中部分的费用开销是显著低于普通的 输入输出 token 价格的。OpenMCP 在每个回答的下面都表明了当次请求的 输入 token输出 token总 token 和 缓存命中率。
其中
- 「总 token」 = 「输入 token」 + 「输出 token」
- 「缓存命中率」 = 「缓存命令的 token」 / 「输入 token」
> 没错,缓存命中率 是对于输入 token 的概念,输出 token 是没有 缓存命中率这个说法的。
在后续的开发中,你可以根据这些信息来针对性地对你的服务或者 prompt 进行调优。
### 完成一个真正的天气预报吧!
当然,这些代码也非常简单,直接让大模型生成就行了(其实大模型是无法生成免 API 的 python 获取天气的代码的,我是直接让大模型把我个人网站上天气预报的 go 函数翻译了一下)
我直接把函数贴上来了:
```python
import requests
import json
from typing import NamedTuple, Optional
class CityWeather(NamedTuple):
city_name_en: str
city_name_cn: str
city_code: str
temp: str
wd: str
ws: str
sd: str
aqi: str
weather: str
def get_city_weather_by_city_name(city_code: str) -> Optional[CityWeather]:
"""根据城市名获取天气信息"""
if not city_code:
print(f"找不到{city_code}对应的城市")
return None
try:
# 构造请求URL
url = f"http://d1.weather.com.cn/sk_2d/{city_code}.html"
# 设置请求头
headers = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/115.0.0.0 Safari/537.36 Edg/115.0.0.0",
"Host": "d1.weather.com.cn",
"Referer": "http://www.weather.com.cn/"
}
# 发送HTTP请求
response = requests.get(url, headers=headers)
response.raise_for_status()
# 解析JSON数据
# 解析JSON数据前先处理编码问题
content = response.text.encode('latin1').decode('unicode_escape')
json_start = content.find("{")
json_str = content[json_start:]
weather_data = json.loads(json_str)
# 构造返回对象
return CityWeather(
city_name_en=weather_data.get("nameen", ""),
city_name_cn=weather_data.get("cityname", "").encode('latin1').decode('utf-8'),
city_code=weather_data.get("city", ""),
temp=weather_data.get("temp", ""),
wd=weather_data.get("wd", "").encode('latin1').decode('utf-8'),
ws=weather_data.get("ws", "").encode('latin1').decode('utf-8'),
sd=weather_data.get("sd", ""),
aqi=weather_data.get("aqi", ""),
weather=weather_data.get("weather", "").encode('latin1').decode('utf-8')
)
except Exception as e:
print(f"获取天气信息失败: {str(e)}")
return None
from mcp.server.fastmcp import FastMCP
mcp = FastMCP('weather', version="0.0.1")
@mcp.tool(
name='get_weather_by_city_code',
description='根据城市天气预报的城市编码 (int),获取指定城市的天气信息'
)
def get_weather_by_code(city_code: int) -> str:
"""模拟天气查询协议,返回格式化字符串"""
city_weather = get_city_weather_by_city_name(city_code)
return str(city_weather)
```
这里有几个点一定要注意:
1. 如果你的输入参数是数字,就算是城市编码这种比较长的数字,请一定定义成 int因为 mcp 底层的是要走 JSON 正反序列化的,而 "114514" 这样的字符串会被 JSON 反序列化成 114514而不是 "114514" 这个字符串。你实在要用 str 来表示一个很长的数字,那么就在前面加一个前缀,比如 "code-114514",避免被反序列化成数字,从而触发 mcp 内部的 type check error
2. tool 的 name 请按照 python 的变量命名要求进行命名,否则部分大模型厂商会给你报错。
好,我们先测试一下:
<div align=center>
<img src="https://picx.zhimg.com/80/v2-d2dbe925010b676482ee57258c14fca7_1440w.png" style="width: 100%;"/>
</div>
可以看到,我们的天气查询工具已经可以正常工作了。
那么接下来,我们就可以把这个工具注入到大模型中了。点击 「交互测试」,只激活当前这个工具,然后询问大模型:
```
请问杭州的天气是多少?
```
<div align=center>
<img src="https://picx.zhimg.com/80/v2-e581c6461190b358adda50ce83633520_1440w.png" style="width: 100%;"/>
</div>
完美!
如此,我们便完成了一个天气查询工具的开发。并且轻松地注入到了我们的大模型中。在实际提供商业级部署方案的时候,虽然 mcp 目前的 stdio 冷启动速度足够快但是考虑到拓展性等多方面因素SSE 还是我们首选的连接方案,关于 SSE 的使用,我们下期再聊。
OpenMCP 开源链接https://github.com/LSTM-Kirigaya/openmcp-client
openaiプロトコルをサポートするAIプロバイダーは、このような情報に対してfunction callingを実行します。そのため、ツールを使用するAIリクエストの入力トークン数は大きくなります。ただし、心配する必要はありません。ほとんどのプロバイダーはKVキャッシュを実装しており、同じプレフィックスの入力に対してキャッシュがあり、キャッシュヒット部分のコストは通常の入力出力トークン価格よりも大幅に低くなります。OpenMCPは各回答の下に、現在のリクエストの

View File

@ -2,26 +2,26 @@
layout: doc
---
# 常见问题解答
# よくある質問
## 错误代码说
## エラーコード説
### 32000 - MCP 连接失败
### 32000 - MCP接続失敗
MCP 连接失败可能有多种原因,以下是一些常见情况
MCP接続失敗の原因は複数考えられます。以下に一般的なケースを挙げます
• **虚拟环境路径不匹配**
• **仮想環境パスの不一致**
虚拟环境venv与入口文件路径不匹配是导致连接失败的常见原因之一
仮想環境venvとエントリーファイルのパスが一致していない場合、接続失敗の原因となることがあります
详细的解决方案请参考:[配置说明](./venv-not-same-path/venv-not-same-path.md)
詳細な解決方法はこちら:[設定説明](./venv-not-same-path/venv-not-same-path.md)
---
• **其他可能的原因**
• **その他の可能性**
- 端口被占用
- 环境变量配置错误
- 依赖库未正确安装
- ポートが使用中
- 環境変数の設定誤り
- 依存ライブラリが正しくインストールされていない
> 如果您遇到以上问题,请先查看错误日志获取详细信息。如果问题仍然存在,可以在 [GitHub Issues](https://github.com/LSTM-Kirigaya/openmcp-client/issues) 中寻求帮助
> 上記の問題が発生した場合、まずエラーログで詳細を確認してください。問題が解決しない場合は、[GitHub Issues](https://github.com/LSTM-Kirigaya/openmcp-client/issues)でサポートを求めてください

View File

@ -1,29 +1,29 @@
# 虚拟环境与入口文件不在同一目录时的配置方式
# 仮想環境とエントリーファイルが異なるディレクトリにある場合の設定方法
## 问题描述
## 問題の説明
在使用 OpenMCP 时有时会遇到虚拟环境venv与 Python 文件不在同一目录的情况,甚至虚拟环境可能位于项目文件夹之外。这种情况下,点击右上角连接按钮可能会出现 MCP 连接失败错误代码32000的问题
OpenMCPを使用する際、仮想環境venvとPythonファイルが同じディレクトリにない場合があり、仮想環境がプロジェクトフォルダの外にあることもあります。このような場合、右上の接続ボタンをクリックするとMCP接続失敗エラーコード32000が発生する可能性があります
## 解决方案
## 解決策
### 1. 调整执行目录
### 1. 実行ディレクトリの調整
在连接选项中,您需要调整执行目录到虚拟环境所在的位置
接続オプションで、実行ディレクトリを仮想環境がある場所に調整する必要があります
![MCP 连接选项界面](./image-2.png)
![MCP接続オプション画面](./image-2.png)
### 2. 修改执行命令
### 2. 実行コマンドの変更
时,需要相应地修改执行命令
時に、実行コマンドを適切に変更する必要があります
![修改执行命令示例](./image.png)
![実行コマンド変更例](./image.png)
### 3. 直接指定解释器路径
### 3. インタプリタパスの直接指定
对于特定情况,您可以直接在命令中指定 Python 解释器的完整路径,例如
特定の場合には、コマンドでPythonインタプリタのフルパスを直接指定できます。例
```bash
C:\code\ygo-chat\.venv\Scripts\python.exe example.py
```
> 注意:此方法同样适用于 node或者mcp指令的【命令】以及其它mcp client的mcp配置文件
> 注意:この方法はnodeやmcp指令の【コマンド】、その他のmcp clientのmcp設定ファイルにも適用できます

View File

@ -1,43 +1,43 @@
---
next:
text: 什么是 MCP
text: MCPとは
link: '/plugin-tutorial/what-is-mcp'
---
# OpenMCP 概
# OpenMCP 概
:::warning
在正式开始 OpenMCP 的学习之前,我们强烈推荐您先了解一下 MCP 的基本概念:[Agent 时代基础设施 | MCP 协议介绍](https://kirigaya.cn/blog/article?seq=299)
OpenMCPの学習を開始する前に、MCPの基本概念を理解することを強くお勧めします[エージェント時代のインフラストラクチャ | MCPプロトコル紹介](https://kirigaya.cn/blog/article?seq=299)
:::
## 什么是 OpenMCP
## OpenMCPとは
OpenMCP 是一个面向开发者的 MCP 调试器和 SDK致力于降低 AI Agent 的全链路开发成本和开发人员的心智负担
OpenMCPは開発者向けのMCPデバッガーおよびSDKであり、AI Agentの全リンク開発コストと開発者の認知的負荷を軽減することを目的としています
![](./images/openmcp.png)
OpenMCP 分为两个部分,但是本板块讲解的是 OpenMCP 调试器的部分的使用,这部分也被我们称为 OpenMCP Client。OpenMCP Client 的本体是一个可在类 vscode 编辑器上运行的插件。它兼容了目前 MCP 协议的全部特性,且提供了丰富的利于开发者使用的功能,可以作为 Claude Inspector 的上位进行使用
OpenMCPは2つの部分に分かれていますが、このセクションではOpenMCPデバッガーの部分の使用方法について説明します。この部分はOpenMCP Clientとも呼ばれています。OpenMCP Clientの本体は、vscodeのようなエディタ上で動作するプラグインです。現在のMCPプロトコルのすべての機能と互換性があり、開発者にとって便利な豊富な機能を提供しており、Claude Inspectorの上位互換として使用できます
:::info 类 vscode 编辑器 (VLE)
类 vscode 编辑器 (vscode-like editor简称 VLE) 是指基于 Vscodium 内核开发的通用型代码编辑器它们都能够兼容的大部分的vscode插件生态并且具有类似 vscode 的功能(比如支持 LSP3.7 协议、拥有 remote ssh 进行远程开发的能力、拥有跨编辑器的配置文件)
:::info vscodeのようなエディタ (VLE)
vscodeのようなエディタvscode-like editor、略称VLEとは、Vscodiumカーネルをベースに開発された汎用コードエディタのことで、大部分のvscodeプラグインエコシステムと互換性があり、vscodeと同様の機能LSP3.7プロトコルのサポート、remote sshによるリモート開発機能、エディター間で設定ファイルを共有する機能などを備えています
比较典型的 VLE 有vscode, trae, cursor 和 vscodium 各类发行版本
代表的なVLEには、vscode、trae、cursor、およびvscodiumの各種ディストリビューションがあります
:::
## 什么是 Claude Inspector
## Claude Inspectorとは
Claude Inspector 是一款 Claude 官方(也就是 MCP 协议的提出者)发布的开源 MCP 调试器,开发者在开发完 MCP 服务器后,可以通过这款调试器来测试功能完整性
Claude Inspectorは、Claude公式つまりMCPプロトコルの提案者がリリースしたオープンソースのMCPデバッガーです。開発者はMCPサーバーの開発後に、このデバッガーを使用して機能の完全性をテストできます
![](./images/inspector.png)
但是 Inspector 工具存在如下几个缺点
ただし、Inspectorツールには以下のような欠点があります
- 使用麻烦:使用 Inspector 每次都需要通过 mcp dev 启动一个 web 前后端应用
- 功能少Inspector 只提供了最为基础的 MCP 的 tool 等属性的调试。如果用户想要测试自己开发的 MCP 服务器在大模型的交互下如何,还需要连接进入 Claude Desktop 并重启客户端,对于连续调试场景,非常不方便
- 存在部分 bug对于 SSE 和 streamable http 等远程连接的场景Inspector 存在已知 bug这对真实工业级开发造成了极大的影响
- 无法对调试内容进行保存和留痕:在大规模微服务 mcp 化的项目中,这非常重要
- 无法同时调试多个 mcp 服务器:在进行 mcp 原子化横向拓展的场景中,这是一项必要的功能
- 使用が面倒Inspectorを使用するたびに、mcp devでWebフロントエンドとバックエンドのアプリケーションを起動する必要があります。
- 機能が少ないInspectorは最も基本的なMCPのtool属性などのデバッグのみを提供しています。ユーザーが開発したMCPサーバーが大規模モデルとの相互作用でどのように動作するかをテストしたい場合、Claude Desktopに接続してクライアントを再起動する必要があり、連続的なデバッグシナリオでは非常に不便です
- いくつかのバグが存在SSEやstreamable httpなどのリモート接続シナリオでは、Inspectorに既知のバグがあり、実際の産業レベルの開発に大きな影響を与えています
- デバッグ内容を保存または記録できない大規模なマイクロサービスMCP化プロジェクトでは、これは非常に重要です
- 複数のMCPサーバーを同時にデバッグできないMCPの原子化水平展開シナリオでは、これは必要な機能です
而 OpenMCP Client 被我们制作出来的一个原因就是为了解决 Inspector 上述的痛点,从而让 mcp 服务器的开发门槛更低,用户能够更加专注于业务本身
OpenMCP Clientが作成された理由の1つは、Inspectorの上記の課題を解決し、MCPサーバーの開発ハードルを下げ、ユーザーがビジネス自体に集中できるようにすることです
<!-- -->

View File

@ -2,49 +2,48 @@
layout: doc
---
# OpenMCPの入手方法
# 获取 OpenMCP
## プラグインストアからOpenMCPをインストール
## 在插件商城中安装 OpenMCP
主要なVLEのプラグインストアで直接OpenMCPプラグインを入手できます。例えばVSCodeでは、左側のプラグインストアをクリックし、検索ボックスに`OpenMCP`と入力するとOpenMCPプラグインが見つかります。
你可以在主流 VLE 的插件商城直接获取 OpenMCP 插件。比如在 vscode 中,点击左侧的插件商城,然后在搜索框中输入 `OpenMCP` 即可找到 OpenMCP 插件。
![vscode プラグインストア](./images/vscode-plugin-market.png)
![vscode 插件商城](./images/vscode-plugin-market.png)
## オフラインインストール
## 离线安装
VLE 的插件本质是一个 zip 压缩包,后缀名为 vsix全平台通用。我们的 CI/CD 机器人在每次版本发布后,会自动构建并上传 vsix 到 github release你可以通过如下的链接访问到对应版本的 github release 页面:
VLEのプラグインは本質的にzip圧縮ファイルであり、拡張子はvsixで全プラットフォーム共通です。私たちのCI/CDボットは各バージョンリリース後に自動的にビルドし、vsixをGitHub Releaseにアップロードします。以下のリンクから対応バージョンのGitHub Releaseページにアクセスできます:
```
https://github.com/LSTM-Kirigaya/openmcp-client/releases/tag/v{版本号}
https://github.com/LSTM-Kirigaya/openmcp-client/releases/tag/v{バージョン番号}
```
比如对于 0.1.1 这个版本,它的 release 页面链接为:[https://github.com/LSTM-Kirigaya/openmcp-client/releases/tag/v0.1.1](https://github.com/LSTM-Kirigaya/openmcp-client/releases/tag/v0.1.1)
例えばバージョン0.1.1の場合、リリースページのリンクはこちらです: [https://github.com/LSTM-Kirigaya/openmcp-client/releases/tag/v0.1.1](https://github.com/LSTM-Kirigaya/openmcp-client/releases/tag/v0.1.1)
`Assets` 下面,你可以找到对应的 vsix 压缩包
`Assets`の下に対応するvsix圧縮ファイルがあります
![github release](./images/github-release.png)
除此之外,您还可以通过如下的商城网页来获取最新的 openmcp 的 vsix
その他にも、以下のストアウェブサイトから最新のopenmcpのvsixを入手できます
- https://open-vsx.org/extension/kirigaya/openmcp
- https://marketplace.visualstudio.com/items?itemName=kirigaya.openmcp
点击 vsix 后缀名的文件下载,下载完成后,您就可以直接安装它了。在 VLE 中安装外部的 vsix 文件有两种方法
vsix拡張子のファイルをクリックしてダウンロードし、ダウンロードが完了したら直接インストールできます。VLEで外部のvsixファイルをインストールする方法は2つあります
### 方法一:在 VLE 中安装
### 方法1: VLE内でインストール
VLE 的插件商城页面有一个三个点的按钮,点击它后,你能看到下面这个列表中被我标红的按钮
VLEのプラグインストアページには3点リーダーボタンがあり、クリックすると以下のリスト内の赤くマークされたボタンが表示されます
![vscode 插件商城](./images/vscode-plugin-market-install-from.png)
![vscode プラグインストア](./images/vscode-plugin-market-install-from.png)
点击它后,找到刚刚下载的 vsix 文件,点击即可完成安装
クリック後、先ほどダウンロードしたvsixファイルを見つけ、クリックするとインストールが完了します
### 方法二:通过命令行
### 方法2: コマンドラインを使用
如果您的 VLE 是全局安装的,会自动存在一个命令行工具,命令如下:
VLEがグローバルにインストールされている場合、自動的にコマンドラインツールが利用可能になります。コマンドは以下の通りです:
::: code-group
::: code-group
```bash [vscode]
code --install-extension /path/to/openmcp-0.1.1.vsix
```
@ -58,4 +57,4 @@ cursor --install-extension /path/to/openmcp-0.1.1.vsix
```
:::
`/path/to/openmcp-0.1.1.vsix` 代表你刚刚下载的 vsix 文件的绝对路径。这样也可以安装插件
`/path/to/openmcp-0.1.1.vsix`はダウンロードしたvsixファイルの絶対パスを表します。これでもプラグインをインストールできます

View File

@ -1,41 +1,37 @@
# あなたの最初のMCP
# 你的第一个 MCP
MCPを実装するプログラミング言語は多く、一般的なほぼすべてのプログラミング言語に公式・非公式のサポートがあります。「プログラミング言語 + MCP」で検索すれば対応するライブラリが見つかります。[[mcp-examples|MCPサーバー開発事例]]では、さまざまなプログラミング言語の異なる例も提供しています。
实现 MCP 的编程语言很多,常见的几户所有编程语言都有官方和民间的支持,以 编程语言 + MCP 就能搜到对应的库,在 [[mcp-examples|MCP 服务器开发案例]] 中,我们也提供了不同编程语言的不同例子
すべてのプログラミング言語の中で、PythonでのMCP開発は間違いなく最も簡単で、初心者にも取り組みやすいものです。そのため、最初のMCPはPythonで実装します。他のプログラミング言語での実装も大同小異です
在所有编程语言中Python 的 MCP 的开发无疑是最为简单,最容易让新手上手的,所以第一个 MCP我们先用 python 来实现。其他的编程语言实现效果也大同小异。
## 安装 uv
Python 写 mcp 服务器强烈推荐使用 uv 作为包管理器,关于 uv你只需要知道它是一个高性能包管理器拥有 pip 和 conda 的所有优点。没有的朋友请先通过 pip 安装 uv
## uvのインストール
Pythonでmcpサーバーを書く際には、パッケージマネージャーとしてuvを使用することを強く推奨します。uvについて知っておくべきことは、高性能なパッケージマネージャーであり、pipとcondaのすべての利点を備えていることです。uvがインストールされていない場合は、まずpipでuvをインストールしてください
```bash
pip install uv
```
:::warning 使用 anaconda 或者 miniconda 的朋友注意了!
请不要在非 base 环境下安装 uv请在 base 环境下安装 uvuv 本身会做好环境隔离的工作,请不要担心 uv 会污染你的 base 环境。你不安装在 base 下或者使用全局默认的 pip 安装,我们根本不知道你安装的 uv 在哪里base 环境下使用 pip 安装的脚本会安装在 `~/anaconda/bin/uv` 中,也请确保 `~/anaconda/bin/` 在你的 `$PATH` 中。
:::warning anacondaまたはminicondaを使用している方へ
非base環境にuvをインストールしないでください。base環境でuvをインストールしてください。uv自体が環境の分離を適切に行いますので、uvがbase環境を汚染する心配はありません。base環境以外にインストールしたり、グローバルなpipでインストールしたりすると、uvがどこにインストールされたのかわからなくなりますbase環境でpipを使用してインストールしたスクリプトは`~/anaconda/bin/uv`にインストールされますので、`~/anaconda/bin/``$PATH`に含まれていることも確認してください。
:::
查看 uv 的版本:
uvのバージョンを確認します
```bash
uv version
```
我的输出是
私の出力は次の通りです
```
uv 0.6.9 (3d9460278 2025-03-20)
```
实操时,请保证版本不要低于我的
実際に操作する際には、このバージョンよりも低くならないようにしてください
## 创建一个最简单的 mcp 服务器
## 最もシンプルなmcpサーバーの作成
我们进入工程目录,准备创建一个最简单的 mcp 服务器
プロジェクトディレクトリに移動し、最もシンプルなmcpサーバーを作成する準備をします
```bash
mkdir -p ~/codes/my-first-mcp
@ -43,31 +39,31 @@ cd ~/codes/my-first-mcp
uv init --no-workspace
```
此时,你的项目里面应该有这三个文件
この時点で、プロジェクト内には以下の3つのファイルがあるはずです
```
README.md main.py pyproject.toml
```
然后,我们在当前文件夹打开 vscode 或者 trae我们创建一个最简单的 mcp 服务器,它的功能是
- 提供一个名为 add 的工具,用于对两个数字进行加法
- 提供一个名为 greeting 的资源,用于返回一个 greeting 消息
次に、現在のフォルダでvscodeまたはtraeを開き、最もシンプルなmcpサーバーを作成します。その機能は次の通りです
- 2つの数字を加算するための「add」というツールを提供
- 挨拶メッセージを返す「greeting」というリソースを提供
先安装 mcp 相关的库
まず、mcp関連のライブラリをインストールします
```bash
uv add mcp "mcp[cli]"
```
修改 `main.py` 内容如下
`main.py`の内容を以下のように変更します
```python
from mcp.server.fastmcp import FastMCP
mcp = FastMCP('锦恢的 MCP Server', version="11.45.14")
mcp = FastMCP('錦恢の MCP Server', version="11.45.14")
@mcp.tool(
name='add',
description='对两个数字进行实数域的加法'
description='2つの数字を実数領域で加算する'
)
def add(a: int, b: int) -> int:
return a + b
@ -75,66 +71,66 @@ def add(a: int, b: int) -> int:
@mcp.resource(
uri="greeting://{name}",
name='greeting',
description='用于演示的一个资源协议'
description='デモンストレーション用のリソースプロトコル'
)
def get_greeting(name: str) -> str:
return f"Hello, {name}!"
@mcp.prompt(
name='translate',
description='进行翻译的prompt'
description='翻訳を行うプロンプト'
)
def translate(message: str) -> str:
return f'请将下面的话语翻译成中文\n\n{message}'
return f'以下の文章を中国語に翻訳してください\n\n{message}'
```
## 使用 OpenMCP 一键连接
## OpenMCPでワンクリック接続
如上,我们申明了三个函数,用作 mcp 的 toolresource 和 prompt。在 OpenMCP 中启动它们非常简单,点击右上角的 OpenMCP 图标即可连接
上記のように、mcpのtool、resource、promptとして使用する3つの関数を宣言しました。OpenMCPでこれらを起動するのは非常に簡単で、右上のOpenMCPアイコンをクリックするだけで接続できます
![](./images/connect-simple.png)
初次使用 OpenMCP会出现引导界面还希望阁下可以耐心看完
OpenMCPを初めて使用する場合、ガイド画面が表示されますので、ぜひ最後までご覧ください
![](./images/guide.png)
如果登录完成后,如图显示连接成功,则代表当前已经成功启动并连接 mcp 服务器
ログインが完了し、以下のように接続成功と表示されれば、mcpサーバーの起動と接続が成功したことを意味します
![](./images/connect-success.png)
恭喜您,万事开头难,您已经完成了最难的 mcp 连接
おめでとうございます。最初の一歩が最も難しいですが、あなたはすでに最も難しいmcp接続を完了しました
有关 openmcp 进行 mcp 服务器连接的更多信息,可以参考手册里面的这一章 [[connect-mcp|连接到 MCP 服务器]]
OpenMCPを使用したmcpサーバー接続に関する詳細情報は、マニュアルのこの章[[connect-mcp|MCPサーバーへの接続]]を参照してください
## 附录:关于 uv 启动 mcp 你必须知道的
## 付録uvでmcpを起動する際に知っておくべきこと
OpenMCP 已经帮你做好了很多事情,但是使用 uv 启动 mcp 服务器其实是不只一种方法的,了解更加底层的原理有助于您以不变应万变。因为 OpenMCP 对于 python 项目默认运行 `uv run mcp run main.py` 来启动 mcp 服务器,但是 GitHub 上的部分项目无法这么启动
OpenMCPはすでに多くのことを行ってくれていますが、uvでmcpサーバーを起動する方法は1つだけではありません。より基本的な原理を理解することで、あらゆる状況に対応できるようになります。OpenMCPはPythonプロジェクトに対してデフォルトで`uv run mcp run main.py`を実行してmcpサーバーを起動しますが、GitHub上の一部のプロジェクトはこの方法では起動できません
先了解一下对于上面那个例子的 python 代码,应该如何通过命令行启动 mcp 吧
まず、上記の例のPythonコードをコマンドラインからどのように起動するかを理解しましょう
### 方法一:使用 mcp-cli
### 方法1mcp-cliを使用する
mcp 本身提供了脚手架,可以直接启动一段被申明的 python 代码,作为一个 mcp 服务器。使用如下代码运行它
mcp自体がスキャフォールディングを提供しており、宣言されたPythonコードを直接起動してmcpサーバーとして実行できます。以下のコードで実行します
```bash
uv run mcp run main.py
```
### 方法二:在代码中显式启动
### 方法2コード内で明示的に起動する
你也可以在代码中显式启动 mcp 服务器,在 `main.py` 的结尾添加
コード内で明示的にmcpサーバーを起動することもできます。`main.py`の末尾に以下を追加します
```python
if __name__ == '__main__':
mcp.run()
```
然后运行如下代码即可启动 mcp 服务器
その後、以下のコードを実行すればmcpサーバーが起動します
```bash
uv run main.py
```
:::warning
请不要运行 python main.py因为 uv run 会使用当前虚拟环境的库,这些库在外部 python 看来是不可见的。也不要在没有使用 `mcp.run()` 启动代码的情况下就直接使用 uv run main.py我们之前的代码只是申明了函数并没有实际上执行任何功能
`python main.py`を実行しないでください。`uv run`は現在の仮想環境のライブラリを使用しますが、これらのライブラリは外部のPythonからは見えません。また、`mcp.run()`で起動コードを使用せずに`uv run main.py`を直接使用することも避けてください。私たちがこれまでに書いたコードは関数を宣言しただけで、実際には何の機能も実行していません
:::

View File

@ -1,10 +1,10 @@
# 快速开始
# クイックスタート
1. [[acquire-openmcp|获取 OpenMCP]]
1. [[acquire-openmcp|OpenMCPを入手する]]
2. [[first-mcp|你的第一个 MCP]]
3. [[quick-debug|快速调试 MCP]]
4. [[put-into-llm|扔进大模型里面测测好坏]]
2. [[first-mcp|最初のMCPを作成]]
3. [[quick-debug|MCPを迅速にデバッグ]]
4. [[put-into-llm|大規模言語モデルでテストしてみよう]]
<br>

View File

@ -1,65 +1,63 @@
# 扔进大模型里面测测好坏
# 大モデルで性能をテストしよう
在 [[quick-debug|之前的章节]] 中,我们成功完成了 mcp 服务器的连接和各个功能的调试,也算是带大家认识了一下 openmcp 的基本调试功能。接下来,我们需要把 mcp 放到大模型环境中来测试毕竟mcp 提出的初衷就是为了让大家可以低成本把自己写的功能接入大模型中
[[quick-debug|前章]]では、mcpサーバーへの接続と各機能のデバッグを無事完了し、openmcpの基本的なデバッグ機能を紹介しました。次は、mcpを大規模モデル環境でテストする段階です。そもそもmcpが提案された目的は、誰もが自分で書いた機能を低コストで大規模モデルに統合できるようにするためでした
在正式进行对话前,还请大家先参照 [[connect-llm|连接大模型]] 来完成大模型 API 的配置,并测试完成你的大模型服务是否可用
本格的な対話を始める前に、[[connect-llm|大モデル接続]]を参照して大モデルAPIの設定を完了し、あなたの大モデルサービスが利用可能かどうかテストしてください
## 和大模型进行对话
## 大モデルとの対話
我们先创建一个新的调试项目选择「交互测试」就可以进入一个和大模型对话的窗口。OpenMCP 提供的对话窗口的基本介绍如下
新しいデバッグプロジェクトを作成し、「インタラクティブテスト」を選択すると、大モデルとの対話ウィンドウが開きます。OpenMCPが提供する対話ウィンドウの基本構成は以下の通りです
![](./images/llm-intro.png)
上面标定了几个比较重要的按钮初次使用您可以直接使用默认设置。点击「使用的工具」可以看到当前激活的工具OpenMCP 默认激活当前连接的 mcp 服务器的所有提供的工具,如果您希望禁用某些工具,可以点击下方的「使用的工具」来选择性地禁用工具
重要なボタンがいくつか表示されています。初めて使用する際は、デフォルト設定のまま進めても構いません。「使用するツール」をクリックすると、現在有効なツールが表示されます。OpenMCPはデフォルトで接続されているmcpサーバーが提供する全てのツールを有効にします。特定のツールを無効にしたい場合は、「使用するツール」から選択的に無効化できます
![](./images/llm-tools.png)
好啦,让我们先来看看基于 mcp 协议,大模型会如何调用我们的工具吧,保持默认设置,然后询问如下问题:<mark>请帮我计算一下 123 + 1313 等于多少</mark>
それでは、mcpプロトコルに基づいて大モデルがどのようにツールを呼び出すか見てみましょう。デフォルト設定のまま、次の質問を入力します<mark>123 + 1313 の計算結果を教えてください</mark>
输入后回车等待结果,可以看到如下的输出
入力後、Enterキーを押して結果を待つと、以下のような出力が得られます
![](./images/llm-calc.png)
可以看到大模型选择使用了我们提供的工具 add 完成了上述的加法OpenMCP 中你能看到大模型是如何调用每一个工具的和工具的返回结果。目前我们问的问题和 mcp 提供的工具都比较简单,对于复杂问题,大模型有可能会在一轮内同时调用多个工具来完成特定的任务,如果你希望大模型每次都只使用一个工具,可以点击下方的默认亮着的「允许模型在单轮回复中调用多个工具」 来禁用这个特性
大モデルが提供されたaddツールを使用して加算を実行したことがわかります。OpenMCPでは、大モデルが各ツールをどのように呼び出し、ツールからどのような結果が返されたかを確認できます。現在の質問とmcpが提供するツールは比較的単純ですが、複雑な問題の場合、大モデルは1回の応答で複数のツールを同時に呼び出して特定のタスクを完了することがあります。大モデルに毎回1つのツールのみを使用させたい場合は、デフォルトで点灯している「モデルが単一応答で複数ツールを呼び出すことを許可」をクリックしてこの機能を無効にできます
## システムプロンプト
## 系统提示词
[bing-images](/Users/bytedance/projects/openmcp-tutorial/bing-images)のような特殊なケースでは、キーワードに基づいてbingの画像を返すmcpサーバーです。
对于一些特殊的情况,比如 [bing-images](/Users/bytedance/projects/openmcp-tutorial/bing-images),这是一个根据关键词来返回 bing 图片的 mcp 服务器。
我们直接询问如下的问题:<mark>请帮我搜索几张明日方舟的图片</mark>,默认情况下,你有可能会得到如下的回复:
次の質問を直接投げかけてみましょう:<mark>アークナイツの画像をいくつか検索してください</mark>。デフォルト設定では、以下のような応答が得られる可能性があります:
![](./images/bing-image-common.png)
模型将得到的图片以链接的形式返回了,但是有的时候其实我希望是返回成图片的形式渲染在屏幕中让我看到的,为了约束和引导大模型返回文本的风格、或是按照我们要求的模板进行返回,我们可以通过设置系统提示词的方式来实现
モデルは取得した画像をリンク形式で返しましたが、時には画像形式で画面にレンダリングして表示してほしい場合もあります。大モデルの応答スタイルを制約・誘導したり、要求したテンプレートに従って応答させるためには、システムプロンプトを設定することで実現できます
我们先点击下方的「系统提示词」
まず、下部の「システムプロンプト」をクリックします:
![](./images/system-prompt-add.png)
我们添加一个新的系统提示词在标题输入「bing image」然后主体部分填入
新しいシステムプロンプトを追加し、タイトルに「bing image」と入力し、本文に以下を記入します
```
你是一个擅长找 bing 图片的 AI当你找到图片时你应该返回图片形式的 markdown比如 ![](https://xxxx.xx/xxxx)
あなたはbing画像検索が得意なAIです。画像を見つけたら、markdown形式で画像を返す必要があります。例えば ![](https://xxxx.xx/xxxx)
```
点击保存。
保存をクリックします
![](./images/system-prompt-image.png)
然后将光标移动到第一个用户对话框上此时会显示几个按钮选择重新运行的按钮openmcp 便会重新执行此处的对话
次に、最初のユーザーダイアログにカーソルを移動させると、いくつかのボタンが表示されます。再実行ボタンを選択すると、openmcpはこの対話を再実行します
![](./images/rerun-bing-image.png)
可以看到此时,图片就被正常渲染出来了
すると、画像が正常にレンダリングされていることが確認できます
![](./images/llm-bing-image-render.png)
system promptやその他のより精密な方法でagentを制御するテクニックについてさらに学びたい場合は、[[go-neo4j-sse|goで実装するneo4jの読み取り専用mcpサーバー (SSE)]]を参照してください。
关于更多使用 system prompt 或者其他更加精准的方法来控制 agent 的技巧,可以移步 [[go-neo4j-sse|go 实现 neo4j 的只读 mcp 服务器 (SSE)]]
## まとめ
## 结语
おめでとうございますopenmcpの基本チュートリアルを完了しました。次は、何か面白いことに取り組む時です[[mcp-examples|MCPサーバー開発事例]]では、openmcpを使用したmcpサーバー開発のさらなる例を見つけることができます。
很好!你完成了 openmcp 的基础教程,接下来,该去做点有趣的事情了!在 [[mcp-examples|MCP 服务器开发案例]] 中,你能找到更多的使用 openmcp 进行 mcp 服务器开发的例子。
遍地惊喜,任君自取。
様々な驚きがあなたをお待ちしています。どうぞご自由にお取りください。

View File

@ -1,49 +1,48 @@
# 快速调试 MCP
# MCPの迅速なデバッグ
在 [[first-mcp|你的第一个 MCP]] 中,我们成功创建了一个 MCP 服务器的最小实例,并且成功使用 openmcp 连接了这个服务器
[[first-mcp|最初のMCP]]では、MCPサーバーの最小インスタンスを作成し、openmcpを使ってこのサーバーに接続することに成功しました
接下来,我们可以来调试这个服务器的功能了,毕竟,不是所有人都是 Jeaf Dean都能一次就写对所有代码。我们写的 MCP 服务器也不总是一开始就自信满满可以上线的,它总是存在着一些我们无法发现的问题。试想一下,如果后面我们把 mcp 连接到大模型进行全链路调试时出了问题这个时候你就会发现可能出错的环节非常多MCP 服务器的问题大模型厂商的问题OpenMCP 的问题?把可能的错误进行分类,然后逐一排查,才是符合工程直觉 (Engineering Instuition) 的做法
次に、このサーバーの機能をデバッグできます。結局のところ、Jeaf Deanのように誰もが一度で全てのコードを正しく書けるわけではありません。私たちが作成するMCPサーバーも、最初から自信を持って公開できるものばかりではなく、常に私たちが気付かない問題が存在します。想像してみてください、後でmcpを大規模モデルに接続して全リンクのデバッグを行う際に問題が発生した場合、その時には非常に多くのエラー要因が考えられることに気付くでしょうMCPサーバーの問題大規模モデルベンダーの問題OpenMCPの問題可能性のあるエラーを分類し、一つずつ調査することが、エンジニアリングの直感(Engineering Instuition)に適った方法です
## 认识面板
## パネルの理解
首次进入 openmcp 时,会进入一个面板,上面一共四个按钮,代表四种调试项目
初めてopenmcpに入ると、パネルが表示され、4つのボタンがあり、4種類のデバッグ項目を表しています
![](./images/openmcp-home.png)
我们现在需要确认的是 toolresource 和 prompt 这三个功能是否运行正常因为在实际项目中tool 是使用得最多的项目,因此,我们先调试 tool
私たちが現在確認する必要があるのは、tool、resource、promptの3つの機能が正常に動作しているかどうかです。実際のプロジェクトでは、toolが最も頻繁に使用される項目であるため、まずtoolをデバッグします
## 调试 Tool
## Toolのデバッグ
为了调试 tool我们点击面板上的 「工具」 按钮,进入 tool 调试界面。tool 面板的基本介绍如下所示
toolをデバッグするために、パネルの「ツール」ボタンをクリックし、toolデバッグインターフェースに入ります。toolパネルの基本説明は以下の通りです
![](./images/tool-desc.png)
调试工具,我们需要先在「工具列表」中选择一个工具(如果没有展开需要先展开工具列表,点击右侧的按钮可以刷新),然后在右侧的「参数填写和执行」中,填写需要测试的参数,点击运行,就能看到结果了
ツールをデバッグするには、まず「ツールリスト」からツールを選択する必要があります(展開されていない場合はまずツールリストを展開し、右側のボタンをクリックして更新できます)。次に、右側の「パラメータ入力と実行」でテストするパラメータを入力し、実行をクリックすると結果が表示されます
![](./images/tool-result.png)
比如我们这边运算最简单的 2 + 2可以看到结果是 4这说明我们的 mcp 连接正常还可以正常返回结果。大家未来可以通过简单测试来验证 mcp 服务器的可用性,这在复杂 agent 系统的调试过程中非常重要。可以编码成自检程序的一部分
例えば、ここで最も簡単な2 + 2を計算すると、結果は4であることがわかります。これは、私たちのmcp接続が正常で、正しく結果を返すことができることを示しています。将来的には、簡単なテストを通じてmcpサーバーの可用性を検証できます。これは複雑なagentシステムのデバッグプロセスにおいて非常に重要です。自己診断プログラムの一部としてコード化することも可能です
## 添加测试项目
## テスト項目の追加
测试完成一个项目后,我们可以通过点击上方的 + 来添加额外的测试项目
1つの項目のテストが完了したら、上部の+をクリックして追加のテスト項目を追加できます
![](./images/tool-add-test-project.png)
这里我们选择「资源」来进行资源项目的调试工作「资源」和另外两个项目有点不一样MCP 协议中的资源访问有两种类型
ここでは、「リソース」を選択してリソース項目のデバッグ作業を行います。「リソース」は他の2つの項目とは少し異なり、MCPプロトコルにおけるリソースアクセスには2つのタイプがあります
- resources/templates/list: 模板资源,带有访问参数,比如文件系统 mcp 中的文件访问,输入文件路径,根据资源协议返回文件内容
- resources/list普通资源,不带访问参数,比如浏览器 mcp 中的 console直接返回控制台的 stdio这种就不需要参数
- resources/templates/list: テンプレートリソース。アクセスパラメータを持ちます。例えば、ファイルシステムmcp内のファイルアクセスで、ファイルパスを入力し、リソースプロトコルに従ってファイル内容を返します
- resources/list通常のリソース。アクセスパラメータを持ちません。例えば、ブラウザmcp内のconsoleで、直接コンソールのstdioを返します。この場合、パラメータは必要ありません
![](./images/resource-desc.png)
`resources/templates/list` 的使用方法和之前的 tool 一样,填入参数点击运行就能看到资源结果
`resources/templates/list`の使用方法は以前のtoolと同じで、パラメータを入力して実行をクリックするとリソース結果が表示されます
![](./images/resource-result.png)
`resources/list` 由于没有参数,直接点击左侧的资源就能直接看到内部的数据
一方、`resources/list`はパラメータがないため、左側のリソースを直接クリックするだけで内部データを確認できます
## 总结
## まとめ
在这一章节中,我们主要介绍了如何使用 openmcp 来调试 MCP 服务器,包括如何调试 tool 和 resourceprompt 的方法和这两个类似,大家可以自行尝试。下一章中,我们将开启最激动人心的一章,我们将把开发的 mcp 服务器扔到大模型中进行测试,这样你才知道你写的 mcp 是不是真的好玩,是不是有价值
この章では、主にopenmcpを使用してMCPサーバーをデバッグする方法を紹介しました。toolとresourceのデバッグ方法を含み、promptの方法もこれらと似ていますので、各自で試してみてください。次の章では、最もエキサイティングな章を開始します。開発したmcpサーバーを大規模モデルに投入してテストを行い、作成したmcpが本当に面白く、価値があるかどうかを確認します

View File

@ -1,69 +1,66 @@
# 连接大模型
# 大モデルの接続
如果需要使用「交互测试」来在和大模型的交互中测试 MCP 工具的性能,你需要首先需要在 OpenMCP 配置大模型
「インタラクションテスト」を使用して大モデルとの対話中にMCPツールの性能をテストする場合、まずOpenMCPで大モデルを設定する必要があります
:::warning 协议兼容性警告
目前 OpenMCP 只支持符合 OpenAI 接口规范的 大模型服务,其他大模型的调用需要请通过 [newApi](https://github.com/QuantumNous/new-api) 进行转发或者自行实现
:::warning プロトコル互換性に関する警告
現在OpenMCPはOpenAIインターフェース仕様に準拠した大モデルサービスのみをサポートしています。他の大モデルを呼び出す必要がある場合は、[newApi](https://github.com/QuantumNous/new-api)を介して転送するか、独自に実装してください
目前市面上主流的如下模型我们都是支持的,如果遇到大模型连接的问题,请随时 [[channel|联系我们]]。
現在市場で主流の以下のモデルはすべてサポートしています。大モデルの接続に問題が発生した場合は、いつでも[[channel|お問い合わせください]]。
:::
在 「设置」-「API」 可以进入大模型的连接配置界面
「設定」-「API」で大モデルの接続設定画面に入ることができます
![](./images/setting-api.png)
## 默认支持的模型
## デフォルトでサポートされているモデル
OpenMCP 默认填充了市面上常见的大模型,下面是支持的模型
OpenMCPはデフォルトで市場で一般的な大モデルを事前に設定しています。以下はサポートされているモデルです。
| 大模型 Name | 提供商 | baseUrl | 默认模型 |
|----------------------|---------------------------|---------------------------------------------|-----------------------|
| 大モデル名 | プロバイダー | baseUrl | デフォルトモデル |
|----------------------|-----------------------------|---------------------------------------------|-----------------------|
| DeepSeek | DeepSeek | `https://api.deepseek.com/v1` | `deepseek-chat` |
| OpenAI | OpenAI | `https://api.openai.com/v1` | `gpt-4-turbo` |
| 通义千问 Qwen | Alibaba | `https://dashscope.aliyuncs.com/compatible-mode/v1` | `qwen-plus` |
| 通義千問 Qwen | Alibaba | `https://dashscope.aliyuncs.com/compatible-mode/v1` | `qwen-plus` |
| 豆包 Seed | ByteDance | `https://ark.cn-beijing.volces.com/api/v3` | `doubao-1.5-pro-32k` |
| Gemini | Google | `https://generativelanguage.googleapis.com/v1beta/openai/` | `gemini-2.0-flash` |
| Grok | xAI | `https://api.x.ai/v1` | `grok-3-mini` |
| Mistral | Mistral AI | `https://api.mistral.ai/v1` | `mistral-tiny` |
| Groq | Groq | `https://api.groq.com/openai/v1` | `mixtral-8x7b-32768` |
| Perplexity | Perplexity AI | `https://api.perplexity.ai/v1` | `pplx-7b-online` |
| Kimi Chat | 月之暗面 (Moonshot AI) | `https://api.moonshot.cn/v1` | `moonshot-v1-8k` |
| Kimi Chat | 月の暗面 (Moonshot AI) | `https://api.moonshot.cn/v1` | `moonshot-v1-8k` |
## 大モデルの設定
## 配置大模型
你需要做的只是把对应服务商的 apiToken 填入 openmcp 中即可。然后点击「测试」,看到下面的响应说明连接成功。您就可以在交互测试里面使用大模型了!
対応するサービスプロバイダーのapiTokenをopenmcpに入力するだけです。その後「テスト」をクリックし、以下の応答が表示されれば接続成功です。インタラクションテストで大モデルを使用できるようになります
![](./images/setting-api-test.png)
:::warning
有些用户会遇到无法访问的问题,请确保你的 baseUrl 填写正确。如果在国内使用某些国外厂商的服务,比如 geminiopenai请确保你的网络环境可以访问到这些服务。在 「设置」-「通用」中你可以设置代理服务器
一部のユーザーはアクセスできない問題に遭遇する可能性があります。baseUrlが正しく入力されていることを確認してください。国内でGeminiやOpenAIなどの国外プロバイダーのサービスを使用する場合、ネットワーク環境がこれらのサービスにアクセスできることを確認してください。「設定」-「一般」でプロキシサーバーを設定できます
:::
## モデルの追加
## 添加模型
使用したい特定のプロバイダーのモデルがデフォルトでサポートされていない場合、2つの方法で追加できます。
如果你想使用的指定服务商的模型不在默认支持的模型中,有两种方法可以添加它们。
### 方法1モデルリストの更新
### 方法一:更新模型列表
此处以通义千问为例子,确保在 apitoken 填写正确的情况下,点击「更新模型列表」,如果服务商严格实现了 openai 标准,那么就能看到所有更新的模型了。
ここでは通義千問を例にします。apitokenが正しく入力されていることを確認した上で、「モデルリストを更新」をクリックします。プロバイダーがOpenAI標準を厳密に実装していれば、すべての更新されたモデルが表示されます。
![](./images/setting-update-models.png)
### 方法二:手动添加模型
### 方法2手動でのモデル追加
如果你的服务器没有支持 openai 标准,你将无法使用「方法一」,你可以如此手动添加模型列表。此处以 Grok 为例,在服务商中找到 grok点击图中所示的编辑
サーバーがOpenAI標準をサポートしていない場合、「方法1」を使用できません。このように手動でモデルリストを追加できます。ここではGrokを例にします。プロバイダーリストからgrokを探し、図に示す編集をクリックします。
![](./images/setting-api-edit.png)
点击模型,输入模型名称,回车,点击确认
モデルをクリックし、モデル名を入力してEnterキーを押し、確認をクリックします
![](./images/setting-api-edit-1.png)
APIページに戻り、保存をクリックします。
回到 api 页面,再点击保存。
## サービスの追加
## 添加服务
如果你要的服务商没有出现我们的列表中(云服务商的服务,或者自己部署的服务),可以通过「添加服务」按钮来添加自定义模型,使用方法和「添加模型」「方法二:手动添加模型」类似,就不赘述了。
リストにないプロバイダーサービスクラウドプロバイダーのサービスや自分でデプロイしたサービスを使用する場合、「サービスの追加」ボタンでカスタムモデルを追加できます。使用方法は「モデルの追加」「方法2手動でのモデル追加」と同様なので、ここでは繰り返しません。

View File

@ -1,77 +1,73 @@
# 连接 mcp 服务器
# MCPサーバーへの接続
不同于 Claude Desktop 和其他的 MCP 客户端类产品OpenMCP 进行 MCP 服务器连接的步骤是相当丝滑的
Claude Desktopや他のMCPクライアント製品とは異なり、OpenMCPによるMCPサーバー接続の手順は非常にスムーズです
:::info MCP客户端
MCP 客户端是指能够通过 MCP 协议进行通信的大模型对话客户端通常是一个运行在本地的应用程序因为网页没有文件IO的权限。它的产品形式目前几乎都是聊天机器人的形式类似于你在网页使用的 chat.deepseek.com 或者 chat.openai.com
:::info MCPクライアント
MCPクライアントとは、MCPプロトコルを通じて通信可能な大規模言語モデル対話クライアントのことで、通常はローカルで動作するアプリケーションウェブページにはファイルIOの権限がないためです。その製品形態は現在ほぼチャットボット形式で、chat.deepseek.comやchat.openai.comのようなウェブサイトで使用するものと類似しています。
:::
首先,打开你的 VLE在 [[acquire-openmcp|获取 OpenMCP]] 中完成 OpenMCP 的安装后,我们先用 python 创建一个最简单的 mcp 服务器,来测试 mcp 客户端的连接
まず、VLEを開き、[[acquire-openmcp|OpenMCPの取得]]でOpenMCPのインストールを完了した後、pythonで最も簡単なmcpサーバーを作成し、mcpクライアントの接続をテストします
## OpenMCPでワンクリック接続
## 使用 OpenMCP 一键连接
在 [[first-mcp|你的第一个 MCP]] 这个例子中,我们申明了三个函数,用作 mcp 的 toolresource 和 prompt。在 OpenMCP 中启动它们非常简单,点击右上角的 OpenMCP 图标即可连接:
[[first-mcp|最初のMCP]]の例では、mcpのtool、resource、promptとして3つの関数を宣言しました。OpenMCPでこれらを起動するのは非常に簡単で、右上のOpenMCPアイコンをクリックするだけで接続できます
![](./images/connect-simple.png)
如果登录完成后,如图显示连接成功,则代表当前已经成功启动并连接 mcp 服务器。
ログインが完了し、図のように接続成功が表示されれば、現在mcpサーバーが正常に起動・接続されたことを意味します。
![](./images/connect-success.png)
## STDIO 连接的启动
## STDIO接続の起動
对于 STDIO 为连接选项的开发方案,我们提供了一键式的快速启动,您不需要额外启动 mcp 的进程。OpenMCP 会自动连接和销毁
STDIOを接続オプションとする開発方案では、ワンクリックでの迅速な起動を提供しており、mcpプロセスを追加で起動する必要はありません。OpenMCPが自動的に接続と破棄を行います
目前支持的编程语言和它们对应的启动参数为
現在サポートされているプログラミング言語とそれに対応する起動パラメータは以下の通りです
|语言|连接参数|启动目录|
|言語|接続パラメータ|起動ディレクトリ|
|:-|:-|:-|
|python|uv run mcp run $\{file\} | 往上追溯,第一个找到的 pyproject.toml 的目录|
|nodejs|node $\{file\}| 往上追溯,第一个找到的 package.json 的目录|
|go|go run $\{file\}| 往上追溯,第一个找到的 go.mod 的目录|
|python|uv run mcp run $\{file\} | 遡って最初に見つかったpyproject.tomlのディレクトリ|
|nodejs|node $\{file\}| 遡って最初に見つかったpackage.jsonのディレクトリ|
|go|go run $\{file\}| 遡って最初に見つかったgo.modのディレクトリ|
## SSE & Streamable HTTP 连接的启动
## SSE & Streamable HTTP接続の起動
对于 SSE 和 Streamable HTTP 这两种远程连接的方式,由于我们并不知道您到底在哪个端口启动的服务器(因为你有可能把启动的 host 和 port 写在不可见的配置文件里或者写在环境变量里),因此,对于远程连接的情况,我们不支持自动创建服务器,您需要手动配置启动选项
SSEとStreamable HTTPという2つのリモート接続方式については、どのポートでサーバーが起動されているか分からない起動hostとportが見えない設定ファイルや環境変数に書かれている可能性があるためため、リモート接続の場合、自動サーバー作成はサポートしておらず、手動で起動オプションを設定する必要があります
点击 VLE 左侧插件栏目的 OpenMCP在 「MCP 连接(工作区)」 视图中,点击 + ,就可以创建一个新的连接
VLE左側のプラグインメニューにあるOpenMCPをクリックし、「MCP接続ワークスペース」ビューで+をクリックすると、新しい接続を作成できます
![](./images/add-connection.png)
选择你需要的通信方式。
必要な通信方式を選択します。
![](./images/select-server-type.png)
输入MCP Server的地址
MCP Serverのアドレスを入力します
![](./images/connect-sse.png)
:::info
需要注意的是不同的通信方式一般使用不同endpoint目前的MCP server大多遵循下面的原则
注意が必要なのは、異なる通信方式は一般的に異なるendpointを使用することです。現在のMCP serverの多くは以下の原則に従っています
如果是以 SSE 启动,那么默认使用 /sse 作为endpoint比如 http://localhost:8001/sse
SSEで起動する場合、デフォルトで/sseをendpointとして使用します。例http://localhost:8001/sse
如果是以 Streamable Http 启动,那么默认使用 /mcp 作为endpoint比如 http://localhost:8001/mcp
Streamable Httpで起動する場合、デフォルトで/mcpをendpointとして使用します。例http://localhost:8001/mcp
当然允许MCP Server使用两个不同的endpoint同时支持两种连接方式这对于想要迁移到Streamable Http但短时间又不能放弃SSE的情况特别有效
もちろん、MCP Serverが2つの異なるendpointを使用して両接続方式を同時にサポートすることも可能で、Streamable Httpに移行したいが短期的にSSEを放棄できない状況に特に有効です
:::
## openmcp 插件的控制面板
## openmcpプラグインのコントロールパネル
在 VLE 的左侧可以找到 openmcp 的图标,点击后就是 openmcp 的控制面板
VLEの左側にopenmcpのアイコンがあり、クリックするとopenmcpのコントロールパネルが表示されます
![](./images/openmcp-control-panel.png)
当前工作区曾经连接过的 mcp 服务器会出现在这里,这是因为 openmcp 默认将工作区启动的 mcp 的连接信息存储在了 `.openmcp/tabs.{server-name}.json` 中,其中 `{server-name}` 就是 mcp 服务器连接成功的服务器名称
現在のワークスペースで以前接続したmcpサーバーはここに表示されます。これは、openmcpがデフォルトでワークスペース起動時のmcp接続情報を`.openmcp/tabs.{server-name}.json`に保存しているためで、`{server-name}`はmcpサーバー接続成功時のサーバー名です
:::warning
注意,同一个项目中,你不应该有两个名字完全相同的 mcp 服务器,这会导致 `.openmcp/tabs.{server-name}.json` 连接信息存储冲突,发生未知错误
注意同じプロジェクト内で、名前が完全に同じmcpサーバーを2つ持つべきではありません。これにより`.openmcp/tabs.{server-name}.json`の接続情報保存が衝突し、未知のエラーが発生する可能性があります
:::
如果你想要在任意工作区都能使用同一个 mcp 服务器,可以考虑在「安装的 MCP 服务器」中添加成熟耐用的 mcp 服务器,这个位置添加的 mcp 服务器全局可用
任意のワークスペースで同じmcpサーバーを使用したい場合は、「インストール済みMCPサーバー」に成熟した耐久性のあるmcpサーバーを追加することを検討してください。この場所に追加されたmcpサーバーはグローバルに使用可能です
在「入门与帮助」中,我们准备了一些可供入门的参考资料,还请阁下善加利用
「入門とヘルプ」では、入門用の参考資料をいくつか準備しています。ぜひご活用ください

View File

@ -1,44 +1,44 @@
# 调试 tools, resources 和 prompts
# デバッグ tools、resources、prompts
## 标签页
## タブ
openmcp 以标签页作为调试项目的最小单元,点击栏目中的 + 可以创建新的标签页。OpenMCP 的 tools, resources 和 prompts 的基本使用与 Inspector 差不多,但是 OpenMCP 会自动帮您完成左侧资源列表的初始化Inspector 中这一步需要手动完成
openmcpはタブをデバッグ項目の最小単位としており、ナビゲーションバーの+をクリックすると新しいタブを作成できます。OpenMCPのtools、resources、promptsの基本的な使用方法はInspectorとほぼ同じですが、OpenMCPは自動的に左側のリソースリストの初期化を行います。Inspectorではこの手順を手動で行う必要があります
## 调试内容的自动保存
## デバッグ内容の自動保存
openmcp 具备自动保存测试结果的功能。如下的行为会触发 openmcp 对标签页及其内容进行保存
openmcpにはテスト結果を自動保存する機能があります。以下の動作が発生すると、openmcpはタブとその内容を保存します
- 创建标签页,并选择一个有效的调试项目
- 在调试页进行调试行为(选择工具,执行工具,询问大模型等)
- タブを作成し、有効なデバッグ項目を選択した場合
- デバッグページでデバッグ操作(ツールの選択、ツールの実行、大規模モデルへの質問など)を行った場合
当前 mcp 项目的测试数据会被保存在 `.openmcp/tabs.{server-name}.json` 中,其中 `{server-name}` 就是 mcp 服务器连接成功的服务器名称
現在のmcpプロジェクトのテストデータは`.openmcp/tabs.{server-name}.json`に保存されます。ここで`{server-name}`はmcpサーバーが正常に接続されたサーバー名です
:::warning
注意,同一个项目中,你不应该有两个名字完全相同的 mcp 服务器,这会导致 `.openmcp/tabs.{server-name}.json` 连接信息存储冲突,发生未知错误
注意同じプロジェクト内で名前が完全に同じmcpサーバーを2つ持つべきではありません。これにより`.openmcp/tabs.{server-name}.json`の接続情報保存に競合が発生し、未知のエラーが発生する可能性があります
:::
## 快速调试
## クイックデバッグ
在我们调试的过程中,难免会出现大模型回答得不好,而且这是因为某个工具出错导致的,为了快速定位是不是工具的问题,可以点击下方的小飞机图标
デバッグプロセス中に、大規模モデルの回答が不十分で、これが特定のツールのエラーによるものである場合、問題がツールにあるかどうかを迅速に特定するために、下部の小さな飛行機アイコンをクリックできます。
![](./images/llm-fast-debug.png)
点击后OpenMCP 会一个新的测试 tool 的项目,并自动把当时大模型使用的参数自动填充到右侧的表单中
クリックすると、OpenMCPは新しいテストツールプロジェクトを作成し、大規模モデルが使用したパラメータを自動的に右側のフォームに入力します
![](./images/llm-fast-debug-result.png)
你要做的,只是点击运行来确定或者排除一个错误选项
あなたがするべきことは、実行をクリックしてエラーオプションを確認または除外することだけです
## pydantic 支持
## pydanticサポート
使用 python 的 fastmcp 进行 tool 的创建时,你有两种方法来申明接口的类型,一种是通过 python 默认的 typing 库来申明复杂数据结构,或者通过 pydantic 来申明一个复杂的变量,下面是一个例子
Pythonのfastmcpを使用してtoolを作成する際、インターフェースのタイプを宣言する方法は2つあります。1つはPythonのデフォルトのtypingライブラリを使用して複雑なデータ構造を宣言する方法、もう1つはpydanticを使用して複雑な変数を宣言する方法です。以下は例です
```python
from mcp.server.fastmcp import FastMCP
from pydantic import BaseModel, Field
from typing import Optional, Union, List, NamedTuple
mcp = FastMCP('锦恢的 MCP Server', version="11.45.14")
mcp = FastMCP('錦恢の MCP Server', version="11.45.14")
class PathParams(BaseModel):
start: str
@ -54,15 +54,14 @@ def test(
return [test1, test2, test3, params]
```
由于我们对这两种类型的申明方式实现了内部的转换,所以 openmcp 都是支持的。值得一提的是,如果你申明的变量是一个对象,比如上面的 `PathParams`,那么 openmcp 的 tool 调试窗口会生成一个「对象输入框」,这个输入框支持基本的格式检查和自动补全
これら2種類の宣言方法に対して内部変換を実装しているため、openmcpはどちらもサポートしています。特に、宣言した変数がオブジェクト上記の`PathParams`などの場合、openmcpのtoolデバッグウィンドウは「オブジェクト入力ボックス」を生成します。この入力ボックスは基本的な形式チェックとオートコンプリートをサポートします
![](./images/object-input.png)
:::info 什么是对象
这里的「对象」是 javascript 中的概念,它指的是可被序列化的数据类型中,除去基本数据类型后,剩下的那部分。比如 { "name": "helloworld" } 就是一个对象。对象在 python 中更加类似于一个 dict 或者 namedTuple
:::info オブジェクトとは
ここでの「オブジェクト」はJavaScriptの概念で、シリアライズ可能なデータ型の中で基本データ型を除いた部分を指します。例えば{ "name": "helloworld" }はオブジェクトです。Pythonでは、オブジェクトはdictやnamedTupleに似ています
:::
:::warning
虽然 openmcp 已经做到了尽可能多情况的支持,但是生产场景中,我们仍然不建议您将 mcp tool 的参数定义成对象,尽可能定义成简单数据类型也能更好提高大模型进行工具调用时的稳定性
openmcpは可能な限り多くのケースをサポートしていますが、生産環境ではmcp toolのパラメータをオブジェクトとして定義することは推奨しません。シンプルなデータ型として定義することで、大規模モデルがツールを呼び出す際の安定性を向上させることができます
:::

View File

@ -1,14 +1,14 @@
# 分发您的实验结果
# 実験結果の配布
## 标签页恢复
## タブの復元
openmcp 默认会实时保存您的实验结果,每一个在工作区开启的服务器默认会将结果存储在 `.openmcp/tabs.{server-name}.json` 中,其中 `{server-name}` 就是 mcp 服务器连接成功的服务器名称
openmcpはデフォルトで実験結果をリアルタイムに保存します。ワークスペースで開かれた各サーバーは、結果を`.openmcp/tabs.{server-name}.json`に保存します。ここで`{server-name}`はmcpサーバー接続が成功したサーバー名です
请确保您的 `.gitignore` 文件中没有包含匹配到 .openmcp 文件夹的规则。这样,当您通过 git 提交你的代码,对 agent 的代码进行管理时,当你在别的电脑上 clone 或者他人 clone 你的项目时,就能快速恢复你上一次的实验内容,继续进行实验或者开发调试
.gitignoreファイルに.openmcpフォルダに一致するルールが含まれていないことを確認してください。これにより、gitでコードをコミットしたり、agentのコードを管理したりする際に、他のコンピュータでcloneしたり、他の人があなたのプロジェクトをcloneした場合に、前回の実験内容を迅速に復元し、実験や開発デバッグを継続できます
## 连接恢复
## 接続の復元
每一个 mcp 服务器的连接信息会被保存在 `.openmcp/connection.json` 中,下面是一个例子
各mcpサーバーの接続情報は`.openmcp/connection.json`に保存されます。以下は例です
```json
{
@ -28,11 +28,11 @@ openmcp 默认会实时保存您的实验结果,每一个在工作区开启的
"clientVersion": "0.0.1",
"env": {},
"serverInfo": {
"name": "锦恢的 MCP Server",
"name": "錦恢の MCP Server",
"version": "1.9.2"
},
"filePath": "{workspace}/simple-mcp/main.py",
"name": "锦恢的 MCP Server",
"name": "錦恢の MCP Server",
"version": "1.9.2"
}
]
@ -40,5 +40,4 @@ openmcp 默认会实时保存您的实验结果,每一个在工作区开启的
}
```
当您打开左侧的控制面板或者打开一个过去打开过的 mcp 服务器时, mcp 默认会根据上面的信息来获取工作区的服务器列表或者尝试进行自动连接。如果 openmcp 在连接 mcp 时发生了初始化错误或者保存错误,除了向 openmcp 官方求助外,您还可以尝试手动管理 `.openmcp/connection.json` 文件。
左側のコントロールパネルを開くか、過去に開いたmcpサーバーを開くと、mcpはデフォルトで上記の情報に基づいてワークスペースのサーバーリストを取得したり、自動接続を試みたりします。openmcpがmcpに接続する際に初期化エラーや保存エラーが発生した場合、openmcp公式に助けを求める以外に、`.openmcp/connection.json`ファイルを手動で管理することもできます。

View File

@ -1,35 +1,34 @@
# 连接多个 MCP 服务器
# 複数のMCPサーバーに接続する
openmcp 支持连接多个 MCP 服务器
openmcpは複数のMCPサーバーへの接続をサポートしています
假设你现在想要实现一个可以自动查阅资料并且整理成 word 文档的 agent你可以这样做
例えば、資料を自動的に検索しWord文書にまとめるagentを実装したい場合、以下のようにできます
1. 找到能进行网络搜索的 mcp[crawl4ai mcp](https://github.com/LSTM-Kirigaya/openmcp-tutorial/tree/main/crawl4ai-mcp)
2. 找到能进行 word 操作的 mcp[Office-Word-MCP-Server](https://github.com/GongRzhe/Office-Word-MCP-Server)
3. 在 openmcp 中把它们组合起来。
4. 自动完成你的任务
1. ウェブ検索可能なmcpを探す[crawl4ai mcp](https://github.com/LSTM-Kirigaya/openmcp-tutorial/tree/main/crawl4ai-mcp)
2. Word操作可能なmcpを探す[Office-Word-MCP-Server](https://github.com/GongRzhe/Office-Word-MCP-Server)
3. openmcpでこれらを組み合わせる
4. タスクを自動完了
假设,我们已经连接了第一个 mcp也就是 crawl4ai mcp我们可以添加额外的 mcp 服务器
最初のmcpcrawl4ai mcpに既に接続している場合、追加のmcpサーバーを接続できます
![](./images/add-new-mcp.png)
## 添加方法一:拖拽
## 追加方法1ドラッグ&ドロップ
直接把需要加入的 mcp 服务器的文件,按住 shift 点击拖拽进入 openmcp 界面就能自动完成参数的填充
接続したいmcpサーバーファイルをShiftキーを押しながらopenmcpインターフェースにドラッグすると、パラメータが自動入力されます
![](./images/drag-to-fill.png)
:::warning
动填充的命令不一定总是准确的,在 [STDIO 连接的启动](http://localhost:5173/openmcp/plugin-tutorial/usage/connect-mcp.html#stdio-%E8%BF%9E%E6%8E%A5%E7%9A%84%E5%90%AF%E5%8A%A8) 中我们说过这一点。具体的连接方法请阅读 [附录:关于 uv 启动 mcp 你必须知道的](http://localhost:5173/openmcp/plugin-tutorial/quick-start/first-mcp.html#%E9%99%84%E5%BD%95-%E5%85%B3%E4%BA%8E-uv-%E5%90%AF%E5%8A%A8-mcp-%E4%BD%A0%E5%BF%85%E9%A1%BB%E7%9F%A5%E9%81%93%E7%9A%84) 后自行判断
動入力されたコマンドが常に正確とは限りません。[STDIO接続の起動](http://localhost:5173/openmcp/plugin-tutorial/usage/connect-mcp.html#stdio-%E8%BF%9E%E6%8E%A5%E7%9A%84%E5%90%AF%E5%8A%A8)で説明した通りです。具体的な接続方法は[付録uvによるmcp起動の必須知識](http://localhost:5173/openmcp/plugin-tutorial/quick-start/first-mcp.html#%E9%99%84%E5%BD%95-%E5%85%B3%E4%BA%8E-uv-%E5%90%AF%E5%8A%A8-mcp-%E4%BD%A0%E5%BF%85%E9%A1%BB%E7%9F%A5%E9%81%93%E7%9A%84)を読んで判断してください
:::
## 添加方法二:手动填写参数
## 追加方法2手動パラメータ入力
动填写参数,没啥好说的
動でパラメータを入力します。特に説明はありません
## 複数サーバーの使用
## 使用多服务器
複数サーバー接続後の使用方法は単一サーバーと大きく変わりません。openmcpが内部でツールのスケジューリングと選択を自動的に行います。唯一の注意点は、複数サーバー間でtool名が重複しないようにすることです。重複すると競合が発生します。
多服务器连接后的使用和单服务器没有太大的区别openmcp 内部会自动完成工具的调度和选择。唯一需要注意的是,多服务器的 tool name 一定不要重名,否则会出现冲突。
如果您认为 tool 重名有存在的必要性,请通过 [issue](https://github.com/LSTM-Kirigaya/openmcp-client/issues) 让我们知道您的场景和想法,根据讨论,我们会支持。
tool名の重複が必要なシナリオがある場合は、[issue](https://github.com/LSTM-Kirigaya/openmcp-client/issues)で使用ケースとアイデアを教えてください。議論を経て対応を検討します。

View File

@ -1,28 +1,22 @@
# MCP Server的OAuth鉴权实现
# MCPサーバーのOAuth認証実装
在使用 **SSE****Streamable HTTP** 进行连接时为增强安全性可为接口设计鉴权机制MCP 官方推荐采用 OAuth 协议。下面以获取 GitHub 用户信息为例,演示如何通过 openmcp-client 完成带 OAuth 认证的接口调试
**SSE**または**Streamable HTTP**を使用して接続する際、セキュリティを強化するためにインターフェースに認証メカニズムを設計できます。MCP公式ではOAuthプロトコルの採用を推奨しています。以下ではGitHubユーザー情報の取得を例に、openmcp-clientを使用してOAuth認証付きのインターフェースデバッグを完了する方法を説明します
## 1. Github OAuth認証IDとsecretの取得
GitHubユーザー情報関連APIを使用するため、まずGitHub OAuthアプリのClient IDとClient secretを取得する必要があります。
## 1. 获取Github OAuth认证ID和secret
由于我们使用了Github用户信息相关API需要先获取Github OAuth应用的Client ID和Client secret。
先进入[Github Developers](https://github.com/settings/developers),点击`New OAuth App`新建一个OAuth APP应用名称随便填`Homepage URL`填写`http://localhost:8000`,`Authorization callback URL`填写`http://localhost:8000/github/callback`。然后点击`Register application`按钮,即可成功注册一个应用。
[Github Developers](https://github.com/settings/developers)にアクセスし、`New OAuth App`をクリックして新しいOAuth APPを作成します。アプリケーション名は任意で入力し、`Homepage URL`には`http://localhost:8000``Authorization callback URL`には`http://localhost:8000/github/callback`を入力します。その後、`Register application`ボタンをクリックすると、アプリケーションが正常に登録されます。
![](images/oauth-github-new-application.png)
登録が成功したら、`Client ID`を記録し、`Generate a new client secret`をクリックして`secret`を生成します。secretは生成時にのみ表示されるので注意してください。
注册成功后,请记录`Client ID`,然后点击`Generate a new client secret`生成一个`secret`注意secret仅在生成的时候可见。
## 2. 環境変数の設定
## 2. 设置环境变量
`Client ID``secret`を取得した後、それらを環境変数として設定する必要があります:
在获取`Client ID``secret`之后,需要将其设置为环境变量:
::: code-group
::: code-group
```bash [bash]
export MCP_GITHUB_GITHUB_CLIENT_ID={{Client ID}}
export MCP_GITHUB_GITHUB_CLIENT_SECRET={{secret}}
@ -39,39 +33,33 @@ set MCP_GITHUB_GITHUB_CLIENT_SECRET={{secret}}
```
:::
注意cmd里面设置环境变量请不要加引号
注意cmdで環境変数を設定する際は引用符を付けないでください
## 3. 克隆源码
## 3. ソースコードのクローン
接下来我们需要部署带有OAuth认证的MCP服务器。可以参照[官方python案例](https://github.com/modelcontextprotocol/python-sdk/tree/main/examples/servers/simple-auth)进行
次に、OAuth認証付きのMCPサーバーをデプロイします。[公式python案例](https://github.com/modelcontextprotocol/python-sdk/tree/main/examples/servers/simple-auth)を参照してください
需要先克隆官方python-sdk源码
まず公式python-sdkのソースコードをクローンします
```bash
git clone https://github.com/modelcontextprotocol/python-sdk/ # 克隆源码
cd examples/servers/simple-auth # 进入对应的目录
git clone https://github.com/modelcontextprotocol/python-sdk/ # ソースコードをクローン
cd examples/servers/simple-auth # 対応するディレクトリに移動
```
## 4. 启动MCP Server
## 4. MCP Serverの起動
先根据需要创建虚拟环境安装依赖,然后可以使用`uv`运行或者直接运行`python main.py`即可,注意需要先设置环境变量,不然启动会报错`2 validation errors for ServerSettings`
必要に応じて仮想環境を作成し依存関係をインストールした後、`uv`を使用して実行するか、直接`python main.py`を実行します。環境変数を設定していないと、起動時に`2 validation errors for ServerSettings`エラーが発生するので注意してください
## 5. 启动openmcp-client
## 5. openmcp-clientの起動
接下来你就可以使用openmcp-client连接刚刚启动的server了不管是使用网页端还是VSCode均可
これで、起動したばかりのserverにopenmcp-clientを使用して接続できます。ウェブ版でもVSCodeでも可能です
点击加号添加连接根据server代码中的`--transport`参数决定是SSE还是Streamable HTTP。如果是SSE则URL填写`http://localhost:8000/sse`如果是Streamable HTTP则URL填写`http://localhost:8000/mcp`。认证签名无需填写
プラス記号をクリックして接続を追加し、serverコードの`--transport`パラメータに基づいてSSEかStreamable HTTPかを決定します。SSEの場合、URLは`http://localhost:8000/sse`を入力します。Streamable HTTPの場合、URLは`http://localhost:8000/mcp`を入力します。認証署名は入力不要です
接下来连接到当前server此时会自动打开一个网页进行认证首次打开需要点击认证认证成功后该网页会自动关闭
次に現在のserverに接続すると、自動的にウェブページが開き認証が行われます。初回アクセス時は認証をクリックする必要があり、認証が成功するとウェブページは自動的に閉じます
![](images/oauth-github-success.png)
认证成功后,进入工具页面,应该能看到一个`get_user_profile`工具点击使用就可以获取到你的Github个人信息了
認証が成功すると、ツールページに移動し、`get_user_profile`ツールが表示されるはずです。クリックして使用すると、GitHubの個人情報を取得できます
![](images/oauth-github-tool.png)

View File

@ -1,72 +1,67 @@
# 用大模型测试您的 mcp
# 大モデルでMCPをテストする
如果您完成了 [[connect-llm|连接 mcp 服务器]] 这一步,那么您就可以开始测试您的 mcp 了
[[connect-llm|MCPサーバーへの接続]]が完了している場合、MCPのテストを開始できます
在 [[put-into-llm|扔进大模型里面测测好坏!]] 中,我们已经通过一个简单的例子来展示来如何使用大模型测试您的 mcp。因此这篇文章更多是讲解不便在「快速开始」中赘述的细节
[[put-into-llm|大モデルでテストしてみよう!]]では、MCPをテストする簡単な例を紹介しました。この記事では、「クイックスタート」では詳しく説明できなかった詳細について解説します
大モデルと対話する際に調整可能なパラメータ(入力欄の下にあるボタン群)について簡単に説明します。
和大模型交互时,有一些参数可以选择,也就是输入框下面那一排按钮,我来简单介绍一下。
## モデル選択
## 选择模型
名前の通り、使用するモデルを切り替えます。openmcpは会話ごとに使用されたモデルを記録します。この特性を活用して複数モデルの混合テストが可能です。
顾名思义你可以在这里切换你的模型。值得一提的是openmcp 会以单条对话为粒度来记录每一条对话使用的模型。您可以利用这一特性来进行混合模型测试
目的のモデルが見つからない場合や追加したい場合は、[[connect-llm|MCPサーバーへの接続]]を参照してください
如果你没有找到你想要的模型,或是想要添加额外的模型,请移步 [[connect-llm|连接 mcp 服务器]] 来了解如何添加模型。
## システムプロンプト
## 系统提示词
您可以在这里选择和添加系统提示词。
システムプロンプトを選択または追加できます。
![](./images/system-prompt.png)
openmcp 默认将您的系统提示词保存在 `~/.openmcp/nedb/systemPrompt.db` 中。您可以通过 nedb 来进行反序列化和拷贝
openmcpはデフォルトでシステムプロンプトを`~/.openmcp/nedb/systemPrompt.db`に保存します。nedbを使用してデシリアライズやコピーが可能です
## プロンプト
## 提词
您可以利用该模块来调用 mcp 服务器提供的 prompt 功能,生成的 prompt 字段会作为富文本被插入您的对话中。
このモジュールでMCPサーバーが提供するprompt機能を呼び出せます。生成されたpromptフィールドはリッチテキストとして会話に挿入されます。
![](./images/prompt.png)
## 资源
## リソース
您可以利用该模块来调用 mcp 服务器提供的 resource 功能,生成的 resource 字段会作为富文本被插入您的对话中
このモジュールでMCPサーバーが提供するresource機能を呼び出せます。生成されたresourceフィールドはリッチテキストとして会話に挿入されます
![](./images/resource.png)
:::warning openmcp 不负责 resource 的数据持久化
请注意!每次对话完成后 resource 是否会被保存到磁盘完全由 mcp server 作者决定openmcp 不负责 resource 的数据持久化!如果您发现关闭 openmcp 再打开resource 彩蛋为空,这不是 openmcp 的 bug而是 mcp server 作者没有支持数据持久化
:::warning openmcpはresourceの永続化を管理しません
注意各会話終了後、resourceがディスクに保存されるかはMCPサーバー作者が決定します。openmcpを再起動後、resourceが空になってもopenmcpのバグではありません。MCPサーバー作者が永続化をサポートしていないためです
:::
## 単一応答での複数ツール呼び出しを許可
## 允许模型在单轮回复中调用多个工具
大模型在进行工具调用时有时候会将在一次回复中要求调用多次工具比如你想要同时获取三个网页的内容翻译大模型可能会同时调用三次「网络搜索」工具如果你提供了的话。多次工具使用时openmcp 会如此渲染调用执行过程:
大モデルがツールを呼び出す際、1回の応答で複数ツールを呼び出す場合があります3つのウェブページの翻訳を同時に取得する場合。openmcpは並列ツール呼び出しを次のようにレンダリングします
![](./images/parallel-tool-call.png)
openmcp 输入框的按钮中的「允许模型在单轮回复中调用多个工具」默认是点亮的。也就是允许大模型可以在一次回复中调用多次工具
「単一応答での複数ツール呼び出しを許可」オプションはデフォルトで有効です
有的时候,我们希望命令一条条执行,就可以选择把这个按钮熄灭
ツールを1つずつ実行したい場合は、このオプションを無効にします
:::warning 协议兼容性警告
有的厂商(比如 gemini不一定严格支持了 openai 协议,对于不支持 「允许模型在单轮回复中调用多个工具」的厂商openmcp 的后端会自动将该选项关闭
:::warning プロトコル互換性に関する注意
Geminiなど、OpenAIプロトコルの「単一応答での複数ツール呼び出し」を完全にサポートしていないベンダーもあります。その場合、openmcpバックエンドは自動的にこのオプションを無効にします
:::
## 温度パラメータ
## 温度参数
値が高いほど生成内容のランダム性が増します。汎用大モデルでは0.60.7が一般的なタスクに適しています。OpenMCPのデフォルト値は0.6です。
温度参数越高,生成内容的随机性越强,对于通用大模型,个人建议参数为 0.6 ~ 0.7会是一个适用于通用型任务的数值。OpenMCP 提供的默认值为 0.6。
## コンテキスト長
## 上下文长度
大モデルが保持する最大対話数を指定しますデフォルト20。合計40対話ある場合、openmcpは最後の20対話のみを送信します。
上下文长度代表了大模型的最大上下文轮数,默认值为 20。举个例子如果你和大模型对话产生了 40 轮数据(工具调用条数+你的问题数量+大模型回答的次数总共 40 个),那么下一次对话 openmcp 只会发送最后 20 条数据给大模型。
:::warning 上下文长度不要太小!
我们强烈不推荐你将这个数值设置低于 20因为大模型接受工具调用的结果需要和之前的调用请求一一对应。如果不对应大模型会返回注入 400 这样的错误。遇到这样的错误,请从最初一句话重启或者新开一个「交互测试」。
:::warning コンテキスト長を小さくしすぎないで!
20未満に設定するのは強く非推奨です。ツール呼び出し結果は以前のリクエストと正確に対応する必要があります。対応しない場合、400エラーが発生する可能性があります。この場合、新しい「対話テスト」を開始してください。
:::
## MCP 服务器超时
MCP 服务器默认超时时间为 30 秒,如果您的 mcp 服务器需要更长的时间才能完成任务,您可以通过「设置」「通用」来设置超时时间,单位为秒,该设置全局生效。
## MCPサーバータイムアウト
デフォルトのタイムアウトは30秒です。「設定」「一般」で単位秒でグローバルに設定可能です。

View File

@ -1,25 +1,23 @@
# UI 配色
## openmcp 的主题色随跟 vscode
## openmcp のテーマカラーは vscode に連動
openmcp 的主题颜色完全跟随 vscode如果你想要更换 openmcp 的主题颜色,你只需要更换 vscode 的主题颜色即可
openmcp のテーマカラーは完全に vscode に連動しています。openmcp のテーマカラーを変更したい場合、vscode のテーマカラーを変更するだけでOKです
比如当你把颜色切换为社区知名主题 One Dark Pro 时openmcp 的表现:
例えば、コミュニティで有名なテーマ「One Dark Pro」に切り替えた時の openmcp の表示:
![](./images/one-dark-pro.png)
## テーマカラーの切り替え
## 切换主题色
这里可以切换 openmcp 的主题色(默认是粉色)
ここで openmcp のテーマカラーを切り替えられます(デフォルトはピンク)
![](./images/change-color.png)
## Trae への特別サポート
## Trae 的特殊支持
openmcp は trae のデフォルトテーマカラーに対して追加サポートを提供しています。私たちはユーザーに、最適な操作性を得るために vscode、cursor、trae などの様々な VLE を試すことを推奨しています。
openmcp 对 trae 的默认主题色都有额外的支持。我们也鼓励我们的用户尝试 vscodecursortrae 等不同的 VLE 来获得最佳手感。
openmcp 官方文档大部分演示的例子都是基于 trae 的「深蓝」默认主题。
openmcp 公式ドキュメントのデモ例の多くは、trae の「深藍」デフォルトテーマをベースにしています。
![](./images/trae-blue.png)

View File

@ -1,18 +1,18 @@
# 什么是 MCP
# MCPとは
![](https://picx.zhimg.com/70/v2-1a2df8a081a76f4e90431d8a2445f495_1440w.avis)
MCP (Model Context Protocol)是一种开放协议用于标准化应用程序如何向大型语言模型LLMs提供上下文。可以将 MCP 想象为 AI 应用的 typec 接口。正如 typec 提供了一种标准化的方式将您的设备连接到各种外设和配件MCP 也提供了一种标准化的方式,将 AI 模型连接到不同的数据源和工具
MCPModel Context Protocolは、アプリケーションが大規模言語モデルLLMsにコンテキストを提供する方法を標準化するためのオープンプロトコルです。MCPをAIアプリケーションのType-Cインターフェースと想像してください。Type-Cがデバイスを様々な周辺機器やアクセサリに接続する標準化された方法を提供するように、MCPはAIモデルを異なるデータソースやツールに接続する標準化された方法を提供します
MCP 协议由 Anthropic 在 2024 年 11 月底推出
MCPプロトコルはAnthropicによって2024年11月末にリリースされました
- 官方文档[Introduction](https://modelcontextprotocol.io/introduction)
- GitHub 仓库[github.com/modelcontextprotocol](https://github.com/modelcontextprotocol)
- 公式ドキュメント[Introduction](https://modelcontextprotocol.io/introduction)
- GitHubリポジトリ[github.com/modelcontextprotocol](https://github.com/modelcontextprotocol)
## 为什么需要 MCP
## なぜMCPが必要なのか
我们都知道,从最初的 chatgpt到后来的 cursorcopilot chatroom再到现在耳熟能详的 agent实际上从用户交互的角度去观察你会发现目前的大模型产品经历了如下的变化
私たちは皆、最初のchatgptから、後のcursor、copilot chatroom、そして現在よく知られているagentまで、実際にはユーザーインタラクションの観点から観察すると、現在の大規模モデル製品は以下のような変化を経てきたことがわかります
``` mermaid
graph LR
@ -21,161 +21,14 @@ a(chatbot > deepseek, chatgpt) --> b(composer > cursor, copilot) --> c(agent > A
```
- chatbot
- 只会聊天的程序
- 工作流程:你输入问题,它给你这个问题的解决方案,但是具体执行还需要你自己去
- 代表工作deepseekchatgpt
- ただチャットするだけのプログラム
- ワークフロー:あなたが質問を入力し、それがその質問の解決策を提供しますが、具体的な実行は自分で行う必要があります
- 代表的な仕事deepseek、chatgpt
- composer
- 稍微会帮你干活的实习生,仅限于写代码
- 工作流程:你输入问题,它会给你帮你生成解决问题的代码,并且自动填入代码编辑器的编译区,你只需要审核确认即可
- 代表工作cursorcopilot
- 少し手伝ってくれるインターン、コードを書くことに限られます
- ワークフロー:あなたが質問を入力し、それが問題を解決するコードを生成し、自動的にコードエディタのコンパイル領域に入力します、あなたは確認するだけです
- 代表的な仕事cursor、copilot
- agent
- 私人秘书。
- 工作流程:你输入问题,它生成这个问题的解决方案,并在征询了你的同意后全自动执行。
- 代表工作AutoGPTManusOpen Manus
为了实现 agent也就需要让 LLM 可以自如灵活地操作所有软件甚至物理世界的机器人于是需要定义统一的上下文协议与之上统一工作流。MCP(model context protocol) 就是解决这套方案的应运而生的基础协议。一个感性认识如下:
```mermaid
graph TB
user(用户)
ai(AI软件)
llm(大模型)
computer(本地环境)
user --帮我整理两会报告中有\n关AI的咨询到word文件--> agent
subgraph agent
ai <--MCP--> llm
computer <--MCP--> ai
end
agent --> word(D:/会议总结/两会报告AI专题.docx)
```
:::info
Anthropic 对于 MCP 的必要性给出的解释MCP 帮助您在 LLMs 之上构建 agent 和复杂的工作流程。LLMs 经常需要与数据和工具集成,而 MCP 提供了以下支持:
- 一系列不断增长的预构建集成,您的 LLM 可以直接接入这些集成。
- 在 LLM 提供商和供应商之间灵活切换。
- 在基础设施内保护数据的最佳实践。
:::
## 总体架构
MCP 的核心采用客户端-服务器架构,其中 host 可以连接到多个服务器:
```mermaid
graph LR
host[Host MCP 客户端\n 浏览器, 代码编辑器, 其他工具]
server_a[MCP 服务器 A]
server_b[MCP 服务器 B]
server_c[MCP 服务器 C]
db_a[(本地\n数据源 A)]
db_b[(本地\n数据源 B)]
remote[(远程服务 C)]
subgraph 你的电脑
direction LR
host <--MCP 协议--> server_a
host <--MCP 协议--> server_b
host <--MCP 协议--> server_c
server_a <--> db_a
server_b <--> db_b
end
subgraph 互联网
server_c <--Web APIs--> remote
end
```
- MCP 主机MCP Hosts MCP 主机是指希望通过 MCP 访问数据的程序,例如 Claude Desktop、集成开发环境IDEs或其他 AI 工具。
- MCP 客户端MCP ClientsMCP 客户端是与服务器保持 1:1 连接的协议客户端,负责与 MCP 服务器通信。
- MCP 服务器MCP ServersMCP 服务器是轻量级程序,每个服务器通过标准化的 Model Context Protocol 暴露特定的功能。
- 本地数据源Local Data Sources本地数据源是指 MCP 服务器可以安全访问的计算机文件、数据库和服务。
- 远程服务Remote Services远程服务是指 MCP 服务器可以通过互联网连接的外部系统(例如通过 API 访问的服务)。
## MCP 的工作流程
从工作流程上MCP 和 LSP 非常非常像,事实上,目前的 MCP 和 LSP 一样,也是基于 [JSON-RPC 2.0](https://link.zhihu.com/?target=https%3A//www.jsonrpc.org/specification) 进行数据传输的基于Stdio 或者 基于SSE。如果开发过 LSP 的朋友对于 MCP 应该会感到非常的理所当然。我将用若干个简单明了的泳道图尽可能让大家看懂这玩意儿是如何执行的。
### 初始化
假设我们的软件已经支持了 MCP 客户端,那么当我们的软件启动时,它会经历如下的步骤:
```mermaid
graph TB
subgraph MCP 客户端
A1[初始化]
A2[获取 MCP 服务端提供的工具集合 \n1. 创建文件 -> createFile\n2. 删除文件 -> deleteFile\n3. 使用搜索引擎 -> useBrowser\n 4. ...]
end
subgraph MCP 服务端
B1[初始化]
end
A1 --startMCPServer--> B1
B1 --ListToolsRequestSchema--> A2
```
### 工作流程
假设,你是一位 C语言工程师你现在想要让 agent 自动完成一个项目的编译,那么执行流程如下:
```mermaid
graph TB
subgraph MCP 客户端
A1[用户询问 请帮我删除 build\n下的所有编译的中间结果] --> A2[将用户询问, 资源, MCP服务端的工具集合发送给大模型]
A3[大模型返回操作流\n1. deleteFile build/a.o\n2. deleteFile build/b.o]
A4[整理操作结果给大模型]
A5[最终响应展示给用户]
end
subgraph MCP 服务端
B1[解析大模型操作流] --征询用户同意--> B2[执行操作流]
end
subgraph 大模型
C1[大模型基于上下文生成操作方案]
C2[大模型基于所有信息生\n成自然语言响应]
end
A3 --> B1
B2 --> A4
A2 --> C1
C1 --> A3
A4 --> C2
C2 --> A5
```
## 开源生态
和 LSP 一样LSP 在开源社区有非常多的客户端和服务端框架MCP 也是一样的,目前 Anthropic 开源了一套 MCP 的服务端框架https://github.com/modelcontextprotocol/servers ,想要探索大模型效用的朋友可以尽情去使用这个框架。这个仓库还收录了很多的官方认可的 MCP 服务器,可以作为学习的参考。
除此之外pulsemcp 上也有很多开源社区开发的 MCP 客户端和服务端https://www.pulsemcp.com/clients
- プライベート秘書。
- ワークフロー:あなたが質問を入力し、それがその問題の解決策を生成し、あなたの同意を得た後、完全に自動的に実行します。
- 代表的な仕事AutoGPT、Manus、Open Manus

View File

@ -1,86 +1,79 @@
---
---
# Change Log
# 変更履歴
## [main] 0.1.1
- 修复 SSH 连接 Ubuntu 的情况下的部分 bug
- 修复 python 项目点击 openmcp 进行连接时,初始化参数错误的问题
- 取消 service 底层的 mcp 连接复用技术,防止无法刷新
- 修复连接后,可能无法在欢迎界面选择调试选项的 bug
- UbuntuへのSSH接続時のバグを修正
- Pythonプロジェクトでopenmcpをクリックして接続する際の初期化パラメータエラーを修正
- service層のmcp接続再利用技術を廃止し、リフレッシュ不能問題を防止
- 接続後、ウェルカム画面でデバッグオプションが選択できないバグを修正
## [main] 0.1.0
- 新特性:支持同时连入多个 mcp server
- 新特性:更新协议内容,支持 streamable http 协议,未来将逐步取代 SSE 的连接方式
- impl issue#16:对于 uv 创建的 py 项目进行特殊支持,自动初始化项目,并将 mcp 定向到 .venv/bin/mcp 中,不再需要用户全局安装 mcp
- 对于 npm 创建的 js/ts 项目进行特殊支持:自动初始化项目
- 去除了 websearch 的设置,增加了 parallel_tool_calls 的设置parallel_tool_calls 默认为 true代表 允许模型在单轮回复中调用多个工具
- 重构了 openmcp 连接模块的基础设施,基于新的技术设施实现了更加详细的连接模块的日志系统.
- impl issue#15:无法复制
- impl issue#14:增加日志清除按钮
- 新機能: 複数mcpサーバーへの同時接続をサポート
- 新機能: プロトコル内容を更新し、streamable httpプロトコルをサポート今後SSE接続方式を段階的に置換
- issue#16実装: uv作成のpyプロジェクト向け特別サポート自動初期化、mcpを.venv/bin/mcpに自動設定
- npm作成のjs/tsプロジェクト向け特別サポート: 自動プロジェクト初期化
- websearch設定を削除、parallel_tool_calls設定を追加デフォルトtrue: 単一応答内での複数ツール呼び出し許可)
- openmcp接続モジュールインフラをリファクタリング、詳細なログシステムを実装
- issue#15実装: コピー不能問題
- issue#14実装: ログ消去ボタン追加
## [main] 0.0.9
- 修复 0.0.8 引入的bugsystem prompt 返回的是索引而非真实内容
- 测试新的发布管线
- 0.0.8で導入されたバグ修正: system promptがインデックスではなく実際の内容を返すように
- 新しいリリースパイプラインをテスト
## [main] 0.0.8
- 大模型 API 测试时更加完整的报错
- 修复 0.0.7 引入的bug修改对话无法发出
- 修复 bug富文本编辑器粘贴文本会带样式
- 修复 bug富文本编辑器发送前缀为空的字符会全部为空
- 修复 bug流式传输进行 function calling 时,多工具的索引串流导致的 JSON Schema 反序列化失败
- 修复 bug大模型返回大量重复错误信息
- 新特性:支持一次对话同时调用多个工具
- UI:优化代码高亮的滚动条
- 新特性resources/list 协议的内容点击就会直接渲染,无需二次发送
- 新特性resources prompts tools 的结果的 json 模式支持高亮
- 大規模モデルAPIテスト時のエラーレポートを強化
- 0.0.7で導入されたバグ修正: 会話編集が送信できない問題
- リッチテキストエディタの貼り付けスタイル問題を修正
- リッチテキストエディタの空文字送信問題を修正
- ストリーミング中のfunction calling時、マルチツールインデックスによるJSON Schemaデシリアライズ失敗を修正
- 大規模モデルの重複エラーメッセージ問題を修正
- 新機能: 単一会話での複数ツール同時呼び出しをサポート
- UI: コードハイライトのスクロールバーを最適化
- 新機能: resources/listプロトコルコンテンツのクリック直接レンダリングを実装
- 新機能: resources/prompts/toolsのJSON結果表示にハイライトをサポート
## [main] 0.0.7
- 优化页面布局,使得调试窗口可以显示更多内容
- 扩大默认的上下文长度 10 -> 20
- 增加「通用选项」 -> 「MCP工具最长调用时间 (sec)」
- 支持富文本输入框,现在可以将 prompt 和 resource 嵌入到输入框中 进行 大规模 prompt engineering 调试工作了
- ページレイアウトを最適化し、デバッグウィンドウの表示領域を拡大
- デフォルトコンテキスト長を10→20に拡張
- 「一般オプション」に「MCPツール最大呼び出し時間(秒)」を追加
- リッチテキスト入力欄をサポート、大規模prompt engineeringデバッグ作業が可能に
## [main] 0.0.6
- 修复部分因为服务器名称特殊字符而导致的保存实效的错误
- 插件模式下左侧管理面板中的「MCP连接工作区」视图可以进行增删改查了
- 新增「安装的 MCP 服务器」,用于安装全局范围的 mcp server
- 增加引导页面
- 修复无法进行离线 OCR 的问题
- 修复全局安装的 mcp 服务器 name 更新的问题
- サーバー名特殊文字による保存不具合を修正
- プラグインモードで左パネルの「MCP接続(ワークスペース)」ビューのCRUD操作を実現
- 「インストール済みMCPサーバー」を追加グローバル範囲mcp server管理
- ガイドページを追加
- オフラインOCR不能問題を修正
- グローバルインストールmcpサーバーのname更新問題を修正
## [main] 0.0.5
- 支持对已经打开过的文件项目进行管理
- 支持对用户对应服务器的调试工作内容进行保存
- 支持连续工具调用和错误警告的显示
- 实现小型本地对象数据库,用于对对话产生的多媒体进行数据持久化
- 支持对于调用结果进行一键复现
- 支持对中间结果进行修改
- 支持 system prompt 的保存和修改
- 開いたことのあるファイルプロジェクトの管理をサポート
- ユーザー別サーバーデバッグ作業内容の保存をサポート
- 連続ツール呼び出しとエラー警告表示を実装
- 小型ローカルオブジェクトデータベースを実装(会話生成マルチメディアの永続化)
- 呼び出し結果のワンクリック再現をサポート
- 中間結果の編集をサポート
- system promptの保存・編集をサポート
## [main] 0.0.4
- 修复选择模型后点击确认跳转回 deepseek 的 bug
- 修复 mcp 项目初始化点击工具全部都是空的 bug
- 修复无法重新连接的 bug
- 支持自定义第三方 openai 兼容的模型服务
- モデル選択後確認クリックでdeepseekに戻るバグを修正
- mcpプロジェクト初期化時ツールが空になるバグを修正
- 再接続不能問題を修正
- サードパーティOpenAI互換モデルサービスのカスタマイズをサポート
## [main] 0.0.3
- 增加每一条信息的成本统计信息
- 修复初始化页面路由不为 debug 导致页面空白的 bug
- メッセージごとのコスト統計情報を追加
- 初期化ページルートがdebugでない場合の白画面バグを修正
## [main] 0.0.2
- 优化页面布局
- 解决更新标签页后打开无法显示的 bug
- 解决不如输入组件按下回车直接黑屏的 bug
- 更加完整方便的开发脚本
- ページレイアウトを最適化
- タブ更新後の表示不能バグを解決
- 入力コンポーネントでEnter押下時の黒画面バグを解決
- より完全で便利な開発スクリプトを実装
## [main] 0.0.1
- 完成 openmcp 的基础 inspector 功能
- 完成配置加载,保存,大模型设置
- 完成标签页自动保存
- 完成大模型对话窗口和工具调用
- 完成对 vscode 和 trae 的支持
- openmcp基本inspector機能を完成
- 設定読み込み/保存、大規模モデル設定を実装
- タブ自動保存機能を実装
- 大規模モデル会話ウィンドウとツール呼び出しを実装
- vscodeとtraeのサポートを実装

View File

@ -1,26 +1,23 @@
---
---
# リソースチャンネル
# 资源频道
## リソース
## 资源
[MCP シリーズビデオチュートリアル(制作中)](https://www.bilibili.com/video/BV1zYGozgEHc)
[MCP 系列视频教程(正在施工中)](https://www.bilibili.com/video/BV1zYGozgEHc)
[錦恢の mcp シリーズブログ](https://kirigaya.cn/blog/search?q=mcp)
[锦恢的 mcp 系列博客](https://kirigaya.cn/blog/search?q=mcp)
[OpenMCP 公式ドキュメント](https://kirigaya.cn/openmcp/plugin-tutorial)
[OpenMCP 官方文档](https://kirigaya.cn/openmcp/plugin-tutorial)
[openmcp-sdk 公式ドキュメント](https://kirigaya.cn/openmcp/sdk-tutorial)
[openmcp-sdk 官方文档](https://kirigaya.cn/openmcp/sdk-tutorial)
## チャンネル
## 频道
[Zhihuサークル - OpenMCP 博物館](https://www.zhihu.com/ring/host/1911121615279849840)
[知乎圈子 - OpenMCP 博物馆](https://www.zhihu.com/ring/host/1911121615279849840)
[QQグループ - OpenMCP 正式技術チーム](https://qm.qq.com/cgi-bin/qm/qr?k=C6ZUTZvfqWoI12lWe7L93cWa1hUsuVT0&jump_from=webapi&authKey=McW6B1ogTPjPDrCyGttS890tMZGQ1KB3QLuG4aqVNRaYp4vlTSgf2c6dMcNjMuBD)
[QQ群 - OpenMCP 正式级技术组](https://qm.qq.com/cgi-bin/qm/qr?k=C6ZUTZvfqWoI12lWe7L93cWa1hUsuVT0&jump_from=webapi&authKey=McW6B1ogTPjPDrCyGttS890tMZGQ1KB3QLuG4aqVNRaYp4vlTSgf2c6dMcNjMuBD)
[Discordチャンネル - OpenMCP 交流グループ](https://discord.gg/SKTZRf6NzU)
[Discord 频道 - OpenMCP 交流群](https://discord.gg/SKTZRf6NzU)
[OpenMCP ソースコード](https://github.com/LSTM-Kirigaya/openmcp-client)
[OpenMCP 源代码](https://github.com/LSTM-Kirigaya/openmcp-client)
[OpenMCP 文档仓库](https://github.com/LSTM-Kirigaya/openmcp-document)
[OpenMCP ドキュメントリポジトリ](https://github.com/LSTM-Kirigaya/openmcp-document)

View File

@ -8,8 +8,8 @@ import { VPTeamPage, VPTeamPageTitle, VPTeamMembers } from 'vitepress/theme';
const contributors = [
{
avatar: 'https://pic1.zhimg.com/v2-b4251de7d2499e942c7ebf447a90d2eb_xll.jpg?source=32738c0c',
name: 'LSTM-Kirigaya (恢)',
title: 'Creator & Developer',
name: 'LSTM-Kirigaya (恢)',
title: '創設者 & 開発者',
links: [
{ icon: 'github', link: 'https://github.com/LSTM-Kirigaya' },
{ icon: 'zhihu', link: 'https://www.zhihu.com/people/can-meng-zhong-de-che-xian' },
@ -20,7 +20,7 @@ const contributors = [
{
avatar: 'https://avatars.githubusercontent.com/u/55867654?v=4',
name: 'PeaceSheep',
title: 'Creator & Developer',
title: '創設者 & 開発者',
links: [
{ icon: 'github', link: 'https://github.com/li1553770945' },
{ icon: 'blog', link: 'https://peacesheep.xyz' },
@ -29,7 +29,7 @@ const contributors = [
{
avatar: 'https://avatars.githubusercontent.com/u/8943691?v=4',
name: 'appli456',
title: 'Developer',
title: '開発者',
links: [
{ icon: 'github', link: 'https://github.com/appli456' },
]
@ -37,7 +37,7 @@ const contributors = [
{
avatar: 'https://avatars.githubusercontent.com/u/115577936?v=4',
name: 'AmeSoraQwQ (AmeZora)',
title: 'Creator & Operation',
title: '創設者 & 運営',
links: [
{ icon: 'bilibili', link: 'https://b23.tv/bqflzuJ' },
{ icon: 'github', link: 'https://github.com/ArcStellar2025' },
@ -46,7 +46,7 @@ const contributors = [
{
avatar: 'https://avatars.githubusercontent.com/u/129645384?v=4',
name: 'SFXJX (社奉行佳婿)',
title: 'Developer',
title: '開発者',
links: [
{ icon: 'github', link: 'https://github.com/STUzhy' },
]
@ -54,7 +54,7 @@ const contributors = [
{
avatar: 'https://avatars.githubusercontent.com/u/37235140?v=4',
name: 'hao (cybermanhao)',
title: 'Developer',
title: '開発者',
links: [
{ icon: 'github', link: 'https://github.com/cybermanhao' },
]
@ -62,7 +62,7 @@ const contributors = [
{
avatar: 'https://avatars.githubusercontent.com/u/213030338?v=4',
name: 'reliedejuedouzhe2',
title: 'Developer',
title: '開発者',
links: [
{ icon: 'github', link: 'https://github.com/reliedejuedouzhe2' },
]

View File

@ -1,34 +1,34 @@
# 参与 OpenMCP 开发
# OpenMCP 開発に参加する
## 想要参与开发,如果联系我们
## 開発に参加したい場合、どうやって連絡すればいいですか
如果你也想要参与 OpenMCP 的开发,你可以通过如下的方式联系到我们
OpenMCPの開発に参加したい場合は、以下の方法で私たちに連絡できます
- <a href="https://qm.qq.com/cgi-bin/qm/qr?k=C6ZUTZvfqWoI12lWe7L93cWa1hUsuVT0&jump_from=webapi&authKey=McW6B1ogTPjPDrCyGttS890tMZGQ1KB3QLuG4aqVNRaYp4vlTSgf2c6dMcNjMuBD" target="_blank">加入 OpenMCP正式级技术组</a> 来和我们直接讨论。
- 联系锦恢的邮箱 1193466151@qq.com
- 提交 [「Feature Request」类型的 issue](https://github.com/LSTM-Kirigaya/openmcp-client/issues) 或者 fork 代码后 [提交 PR](https://github.com/LSTM-Kirigaya/openmcp-client/pulls)
- <a href="https://qm.qq.com/cgi-bin/qm/qr?k=C6ZUTZvfqWoI12lWe7L93cWa1hUsuVT0&jump_from=webapi&authKey=McW6B1ogTPjPDrCyGttS890tMZGQ1KB3QLuG4aqVNRaYp4vlTSgf2c6dMcNjMuBD" target="_blank">OpenMCP正式技術グループに参加</a>して直接議論する
- 錦恢のメールアドレス 1193466151@qq.com に連絡する
- [「Feature Request」タイプのissue](https://github.com/LSTM-Kirigaya/openmcp-client/issues)を提出するか、コードをforkして[PRを提出](https://github.com/LSTM-Kirigaya/openmcp-client/pulls)する
## 我能为 OpenMCP 做些什么
## OpenMCPのために何ができますか
虽然 OpenMCP 本体看起来技术乱七八糟,但是实际上,阁下可以为 OpenMCP 做的事情远比您想象的多
OpenMCP本体は技術的に複雑に見えるかもしれませんが、実際には想像以上に多くのことができます
- 通过提交 PR 贡献代码或者修复 bug如果您愿意的话。
- 为我们的项目设计新的功能,这未必一定需要阁下写代码,只是在 [MVP 需求规划](https://github.com/LSTM-Kirigaya/openmcp-client?tab=readme-ov-file#%E9%9C%80%E6%B1%82%E8%A7%84%E5%88%92) 中提出有意义的功能也是很不错的贡献。
- 通过 OpenMCP 来完成不同的 agent 开发的例子或者打磨新的开发 AI Agent 的方法论。在征得阁下本人同意后,我们将会将你的教程整合到这个网站中。
- PRを提出してコードを貢献したりバグを修正したりできますもし希望すれば
- 私たちのプロジェクトのために新しい機能を設計できます。必ずしもコードを書く必要はなく、[MVP要件計画](https://github.com/LSTM-Kirigaya/openmcp-client?tab=readme-ov-file#%E9%9C%80%E8%A6%81%E8%A6%8F%E5%88%92)に有意義な機能を提案するのも素晴らしい貢献です
- OpenMCPを使って様々なagent開発の例を作成したり、新しいAI Agent開発方法論を磨いたりできます。あなたの同意を得た後、私たちはあなたのチュートリアルをこのサイトに統合します
通过向 OpenMCP 贡献以上内容或是其他,阁下将能成为 OpenMCP 的贡献者
上記の内容やその他をOpenMCPに貢献することで、あなたはOpenMCPの貢献者になることができます
## 为 openmcp 文档站点添砖加瓦
## openmcpドキュメントサイトに貢献する
如果您想要为 openmcp 文档站点修复专业错误或者贡献您的例子,请 fork [openmcp-document](https://github.com/LSTM-Kirigaya/openmcp-document) 提交 PR
openmcpドキュメントサイトの専門的な誤りを修正したり、あなたの例を貢献したい場合は、[openmcp-document](https://github.com/LSTM-Kirigaya/openmcp-document)をforkしてPRを提出してください
如果您对 github 的操作不熟悉,请 [进入 OpenMCP 开发群](https://qm.qq.com/cgi-bin/qm/qr?k=C6ZUTZvfqWoI12lWe7L93cWa1hUsuVT0&jump_from=webapi&authKey=McW6B1ogTPjPDrCyGttS890tMZGQ1KB3QLuG4aqVNRaYp4vlTSgf2c6dMcNjMuBD) 并联系管理员锦恢,请提供如下几件东西
githubの操作に慣れていない場合は、[OpenMCP開発グループに参加](https://qm.qq.com/cgi-bin/qm/qr?k=C6ZUTZvfqWoI12lWe7L93cWa1hUsuVT0&jump_from=webapi&authKey=McW6B1ogTPjPDrCyGttS890tMZGQ1KB3QLuG4aqVNRaYp4vlTSgf2c6dMcNjMuBD)して管理者の錦恢に連絡してください。以下の情報を提供してください
- 您希望贡献的内容
- 您的 github 账号(主页链接
- 您的邮箱
- 您希望展现在网站上的 ID 和 头像
- 您希望关联的网站链接比如b站知乎个人网站什么的
- 貢献したい内容
- あなたのgithubアカウントホームページリンク
- メールアドレス
- サイトに表示したいIDとアバター
- 関連付けたいウェブサイトリンクbilibili、Zhihu、個人サイトなど
完成添加后,您就可以向 [openmcp-document](https://github.com/LSTM-Kirigaya/openmcp-document) 提交 PR 了
追加が完了したら、[openmcp-document](https://github.com/LSTM-Kirigaya/openmcp-document)にPRを提出できます

View File

@ -1,71 +1,67 @@
<div align="center" style="margin-bottom: 30px; border-radius: .5em; border: 1px solid var(--vp-c-brand-2); background-color: var(--vp-bg-brand-2); padding: 30px 10px;">
<img src="/images/icons/openmcp-sdk.svg" width="200px"/>
<h3>openmcp-sdk : 适用于 openmcp 的部署框架</h3>
<h4>闪电般将您的 agent 从实验室部署到生产环境</h4>
<h3>openmcp-sdk : openmcp 向けデプロイメントフレームワーク</h3>
<h4>実験室から本番環境まで、エージェントを瞬時に展開</h4>
</div>
# 介绍 & 安装
# 導入 & インストール
## 什么是 openmcp-sdk.js
## openmcp-sdk.jsとは
OpenMCP Client 提供了一体化的 MCP 调试解决方案,这很好,但是,还是不够有趣
OpenMCP Clientは統合されたMCPデバッグソリューションを提供しますが、それだけでは物足りません
因为,我们总是希望可以把做好的 mcp 搞一个可以直接分发的 app 或者扔到服务器上做成一个函数服务或者微服务。而 OpenMCP Client 把和大模型交互,使用工具的这套逻辑全部放到了前端,导致我们如果想要把 mcp 做成一个和大模型绑定的独立应用或者服务,困难重重
作成したmcpを配布可能なアプリにしたり、サーバー上で関数サービスやマイクロサービスとして展開したい場合、OpenMCP Clientがフロントエンドに大規模モデルとの連携やツール使用ロジックを実装しているため、困難が生じます
这个时候openmcp-sdk.js 就提供了一种轻量级解决方案。它是一个 nodejs 的库,可以让您通过 nodejs 将写好的 mcp 和调试好的流程无缝部署成一个 agent
openmcp-sdk.jsはこの問題に対する軽量ソリューションです。Node.jsライブラリとして、完成したmcpをシームレスにエージェントとして展開可能にします
## インストール
## 安装
::: code-group
::: code-group
```bash [npm]
npm install openmcp-sdk
npm install openmcp-sdk
```
```bash [yarn]
yarn add openmcp-sdk
yarn add openmcp-sdk
```
```bash [pnpm]
pnpm add openmcp-sdk
pnpm add openmcp-sdk
```
:::
:::warning
目前 openmcp-sdk 只支持 esm 模式的导入
現在openmcp-sdkはesmモードのインポートのみサポートしています
:::
## 使用方法
## 使用
文件名main.ts
ファイル名main.ts
```typescript
import { TaskLoop } from 'openmcp-sdk/task-loop';
import { TaskLoopAdapter } from 'openmcp-sdk/service';
async function main() {
// 创建适配器,负责通信和 mcp 连接
// 通信とmcp接続を担当するアダプター作成
const adapter = new TaskLoopAdapter();
// 添加 mcp 服务器
// mcpサーバー追加
adapter.addMcp({
connectionType: 'STDIO',
commandString: 'node index.js',
cwd: '~/projects/openmcp-tutorial/my-browser/dist'
});
// 创建事件循环驱动器, verbose 数值越高,输出的日志越详细
// イベントループドライバー作成verbose値が高いほど詳細なログを出力
const taskLoop = new TaskLoop({ adapter, verbose: 1 });
// 获取所有工具
// 全ツール取得
const tools = await taskLoop.getTools();
// 配置改次事件循环使用的大模型
// 使用する大規模モデル設定
taskLoop.setLlmConfig({
id: 'deepseek',
baseUrl: 'https://api.deepseek.com/v1',
@ -73,81 +69,79 @@ async function main() {
userModel: 'deepseek-chat'
});
// 创建当前事件循环对应的上下文,并且配置当前上下文的设置
// コンテキスト作成と設定
const storage = {
messages: [],
settings: {
temperature: 0.7,
// 在本次对话使用所有工具
// 全てのツールを有効化
enableTools: tools,
// 系统提示词
// システムプロンプト
systemPrompt: 'you are a clever bot',
// 对话上下文的轮
// 会話コンテキストのターン
contextLength: 20
}
};
// 本次发出的问题
// 質問内容
const message = 'hello world';
// 开启事件循环
// イベントループ開始
await taskLoop.start(storage, message);
// 打印上下文,最终的回答在 messages.at(-1) 中
// 最終回答を表示messages.at(-1)に格納)
const content = storage.messages.at(-1).content;
console.log('最回答:', content);
console.log('最回答:', content);
}
main();
```
以 esm 模块来运行它,先安装 typescript 的 esm 启动器
esmモードで実行するには、まずTypeScriptのesmランチャーをインストール
```bash
npm install tsx --save-dev
```
运行上面的文件
ファイルを実行:
```bash
npx tsx main.ts
```
下面是可能的输出:
出力例:
```
[6/5/2025, 8:16:15 PM] 🚀 [my-browser] 0.1.0 connected
[6/5/2025, 8:16:15 PM] task loop enters a new epoch
[6/5/2025, 8:16:23 PM] task loop finish a epoch
[6/5/2025, 8:16:23 PM] 🤖 llm wants to call these tools k_navigate
[6/5/2025, 8:16:23 PM] 🔧 calling tool k_navigate
[6/5/2025, 8:16:34 PM] × fail to call tools McpError: MCP error -32603: net::ERR_CONNECTION_RESET at https://towardsdatascience.com/tag/editors-pick/
[6/5/2025, 8:16:34 PM] task loop enters a new epoch
[6/5/2025, 8:16:40 PM] task loop finish a epoch
[6/5/2025, 8:16:40 PM] 🤖 llm wants to call these tools k_navigate
[6/5/2025, 8:16:40 PM] 🔧 calling tool k_navigate
[6/5/2025, 8:16:44 PM] ✓ call tools okey dockey success
[6/5/2025, 8:16:44 PM] task loop enters a new epoch
[6/5/2025, 8:16:57 PM] task loop finish a epoch
[6/5/2025, 8:16:57 PM] 🤖 llm wants to call these tools k_evaluate
[6/5/2025, 8:16:57 PM] 🔧 calling tool k_evaluate
[6/5/2025, 8:16:57 PM] ✓ call tools okey dockey success
[6/5/2025, 8:16:57 PM] task loop enters a new epoch
[6/5/2025, 8:17:06 PM] task loop finish a epoch
[6/5/2025, 8:17:06 PM] 🤖 llm wants to call these tools k_navigate, k_navigate
[6/5/2025, 8:17:06 PM] 🔧 calling tool k_navigate
[6/5/2025, 8:17:09 PM] ✓ call tools okey dockey success
[6/5/2025, 8:17:09 PM] 🔧 calling tool k_navigate
[6/5/2025, 8:17:12 PM] ✓ call tools okey dockey success
[6/5/2025, 8:17:12 PM] task loop enters a new epoch
[6/5/2025, 8:17:19 PM] task loop finish a epoch
[6/5/2025, 8:17:19 PM] 🤖 llm wants to call these tools k_evaluate, k_evaluate
[6/5/2025, 8:17:19 PM] 🔧 calling tool k_evaluate
[6/5/2025, 8:17:19 PM] ✓ call tools okey dockey success
[6/5/2025, 8:17:19 PM] 🔧 calling tool k_evaluate
[6/5/2025, 8:17:19 PM] ✓ call tools okey dockey success
[6/5/2025, 8:17:19 PM] task loop enters a new epoch
[6/5/2025, 8:17:45 PM] task loop finish a epoch
"以下是整理好的热门文章信息,并已翻译为简体中文:\n\n---\n\n### K1 标题 \n**《数据漂移并非真正问题:你的监控策略才是》** \n\n**简介** \n在机器学习领域数据漂移常被视为模型性能下降的罪魁祸首但本文作者提出了一种颠覆性的观点数据漂移只是一个信号真正的核心问题在于监控策略的不足。文章通过实际案例如电商推荐系统和金融风控模型揭示了传统统计监控的局限性并提出了一个三层监控框架 \n1. **统计监控**:快速检测数据分布变化,但仅作为初步信号。 \n2. **上下文监控**:结合业务逻辑,判断漂移是否对关键指标产生影响。 \n3. **行为监控**:追踪模型预测的实际效果,避免“无声漂移”。 \n\n亮点在于作者强调了监控系统需要与业务目标紧密结合而非单纯依赖技术指标。 \n\n**原文链接** \n[点击阅读原文](https://towardsdatascience.com/data-drift-is-not-the-actual-problem-your-monitoring-strategy-is/) \n\n---\n\n### K2 标题 \n**《从 Jupyter 到程序员的快速入门指南》** \n\n**简介** \n本文为数据科学家和初学者提供了一条从 Jupyter Notebook 过渡到专业编程的清晰路径。作者通过实际代码示例和工具推荐(如 VS Code、Git 和 Docker帮助读者摆脱 Notebook 的局限性,提升代码的可维护性和可扩展性。 \n\n亮点包括 \n- 如何将 Notebook 代码模块化为可复用的 Python 脚本。 \n- 使用版本控制和容器化技术优化开发流程。 \n- 实战案例展示如何将实验性代码转化为生产级应用。 \n\n**原文链接** \n[点击阅读原文](https://towardsdatascience.com/the-journey-from-jupyter-to-programmer-a-quick-start-guide/) \n\n---\n\n如果需要进一步优化或补充其他内容请随时告诉我"
```
[6/5/2025, 8:16:15 PM] 🚀 [my-browser] 0.1.0 接続済み
[6/5/2025, 8:16:15 PM] タスクループが新規エポックを開始
[6/5/2025, 8:16:23 PM] タスクループがエポックを終了
[6/5/2025, 8:16:23 PM] 🤖 LLMがこれらのツールを呼び出し要求: k_navigate
[6/5/2025, 8:16:23 PM] 🔧 ツールk_navigateを呼び出し中
[6/5/2025, 8:16:34 PM] × ツール呼び出し失敗 McpError: MCP error -32603: net::ERR_CONNECTION_RESET at https://towardsdatascience.com/tag/editors-pick/
[6/5/2025, 8:16:34 PM] タスクループが新規エポックを開始
[6/5/2025, 8:16:40 PM] タスクループがエポックを終了
[6/5/2025, 8:16:40 PM] 🤖 LLMがこれらのツールを呼び出し要求: k_navigate
[6/5/2025, 8:16:40 PM] 🔧 ツールk_navigateを呼び出し中
[6/5/2025, 8:16:44 PM] ✓ ツール呼び出し成功
[6/5/2025, 8:16:44 PM] タスクループが新規エポックを開始
[6/5/2025, 8:16:57 PM] タスクループがエポックを終了
[6/5/2025, 8:16:57 PM] 🤖 LLMがこれらのツールを呼び出し要求: k_evaluate
[6/5/2025, 8:16:57 PM] 🔧 ツールk_evaluateを呼び出し中
[6/5/2025, 8:16:57 PM] ✓ ツール呼び出し成功
[6/5/2025, 8:16:57 PM] タスクループが新規エポックを開始
[6/5/2025, 8:17:06 PM] タスクループがエポックを終了
[6/5/2025, 8:17:06 PM] 🤖 LLMがこれらのツールを呼び出し要求: k_navigate, k_navigate
[6/5/2025, 8:17:06 PM] 🔧 ツールk_navigateを呼び出し中
[6/5/2025, 8:17:09 PM] ✓ ツール呼び出し成功
[6/5/2025, 8:17:09 PM] 🔧 ツールk_navigateを呼び出し中
[6/5/2025, 8:17:12 PM] ✓ ツール呼び出し成功
[6/5/2025, 8:17:12 PM] タスクループが新規エポックを開始
[6/5/2025, 8:17:19 PM] タスクループがエポックを終了
[6/5/2025, 8:17:19 PM] 🤖 LLMがこれらのツールを呼び出し要求: k_evaluate, k_evaluate
[6/5/2025, 8:17:19 PM] 🔧 ツールk_evaluateを呼び出し中
[6/5/2025, 8:17:19 PM] ✓ ツール呼び出し成功
[6/5/2025, 8:17:19 PM] 🔧 ツールk_evaluateを呼び出し中
[6/5/2025, 8:17:19 PM] ✓ ツール呼び出し成功
[6/5/2025, 8:17:19 PM] タスクループが新規エポックを開始
[6/5/2025, 8:17:45 PM] タスクループがエポックを終了
"以下は人気記事の整理済み情報(簡体中文訳):\n\n---\n\n### K1 タイトル\n**『データドリフトは真の問題ではない:監視戦略こそが鍵』**\n\n**概要**\n機械学習分野でデータドリフトはモデル性能低下の原因とされますが、本記事はこの常識を覆します。監視戦略の不備こそが核心的問題だと指摘。eコマース推薦システムや金融リスクモデルなどの実例を通じ、従来の統計的監視の限界を明らかにし、3層監視フレームワークを提案:\n1. **統計監視**: データ分布変化を迅速検知(初期信号として)\n2. **コンテキスト監視**: ビジネスロジックと連動、重要指標への影響を判定\n3. **行動監視**: モデル予測の実効果を追跡、「無音ドリフト」を防止\n\n技術指標依存ではなく、ビジネス目標と密接に連携した監視システムの重要性を強調。\n\n**原文リンク**\n[記事を読む](https://towardsdatascience.com/data-drift-is-not-the-actual-problem-your-monitoring-strategy-is/)\n\n---\n\n### K2 タイトル\n**『Jupyterからプログラマーへの速習ガイド』**\n\n**概要**\nデータサイエンティストや初心者向けに、Jupyter Notebookから専門的プログラミングへ移行する道筋を提示。VS Code、Git、Dockerなどのツール推奨と実践コード例で、Notebookの限界を超え、コードの保守性と拡張性を向上させる方法を解説。\n\n主なハイライト:\n- Notebookコードを再利用可能なPythonスクリプトへモジュール化\n- バージョン管理とコンテナ技術で開発フローを最適化\n- 実験的コードから本番級アプリケーションへの変換実例\n\n**原文リンク**\n[記事を読む](https://towardsdatascience.com/the-journey-from-jupyter-to-programmer-a-quick-start-guide/)\n\n---\n\n追加調整やコンテンツ補充が必要な場合はお知らせください"

145
package-lock.json generated
View File

@ -17,7 +17,11 @@
"@nolebase/vitepress-plugin-inline-link-preview": "^2.17.1",
"@nolebase/vitepress-plugin-page-properties": "^2.17.1",
"@nolebase/vitepress-plugin-thumbnail-hash": "^2.17.1",
"chalk": "^5.4.1",
"mermaid": "^11.6.0",
"ompipe": "^1.0.2",
"openai": "^5.3.0",
"simple-git": "^3.28.0",
"vitepress-plugin-lightbox": "^1.0.2",
"vitepress-plugin-mermaid": "^2.0.17"
}
@ -879,6 +883,23 @@
"resolved": "https://registry.npmmirror.com/@jridgewell/sourcemap-codec/-/sourcemap-codec-1.5.0.tgz",
"integrity": "sha512-gv3ZRaISU3fjPAgNsriBRqGWQL6quFx04YMPW/zD8XMLsU32mhCCbfbO6KZFLjvYpCZ8zyDEgqsgf+PwPaM7GQ=="
},
"node_modules/@kwsites/file-exists": {
"version": "1.1.1",
"resolved": "https://registry.npmjs.org/@kwsites/file-exists/-/file-exists-1.1.1.tgz",
"integrity": "sha512-m9/5YGR18lIwxSFDwfE3oA7bWuq9kdau6ugN4H2rJeyhFQZcG9AgSHkQtSD15a8WvTgfz9aikZMrKPHvbpqFiw==",
"dev": true,
"license": "MIT",
"dependencies": {
"debug": "^4.1.1"
}
},
"node_modules/@kwsites/promise-deferred": {
"version": "1.1.1",
"resolved": "https://registry.npmjs.org/@kwsites/promise-deferred/-/promise-deferred-1.1.1.tgz",
"integrity": "sha512-GaHYm+c0O9MjZRu0ongGBRbinu8gVAMd2UZjji6jVmqKtZluZnptXGWhz1E8j8D2HJ3f/yMxKAUC0b+57wncIw==",
"dev": true,
"license": "MIT"
},
"node_modules/@mermaid-js/mermaid-mindmap": {
"version": "9.3.0",
"resolved": "https://registry.npmjs.org/@mermaid-js/mermaid-mindmap/-/mermaid-mindmap-9.3.0.tgz",
@ -2653,6 +2674,22 @@
"url": "https://github.com/chalk/ansi-regex?sponsor=1"
}
},
"node_modules/ansi-styles": {
"version": "4.3.0",
"resolved": "https://registry.npmjs.org/ansi-styles/-/ansi-styles-4.3.0.tgz",
"integrity": "sha512-zbB9rCJAT1rbjiVDb2hqKFHNYLxgtk8NURxZ3IZwD3F6NtxbXZQCnnSi1Lkx+IDohdPlFp222wVALIheZJQSEg==",
"dev": true,
"license": "MIT",
"dependencies": {
"color-convert": "^2.0.1"
},
"engines": {
"node": ">=8"
},
"funding": {
"url": "https://github.com/chalk/ansi-styles?sponsor=1"
}
},
"node_modules/argparse": {
"version": "1.0.10",
"resolved": "https://registry.npmjs.org/argparse/-/argparse-1.0.10.tgz",
@ -2797,6 +2834,26 @@
"url": "https://github.com/sponsors/sindresorhus"
}
},
"node_modules/color-convert": {
"version": "2.0.1",
"resolved": "https://registry.npmjs.org/color-convert/-/color-convert-2.0.1.tgz",
"integrity": "sha512-RRECPsj7iu/xb5oKYcsFHSppFNnsj/52OVTRKb4zP5onXwVF3zVmmToNcOfGC+CRDpfK/U584fMg38ZHCaElKQ==",
"dev": true,
"license": "MIT",
"dependencies": {
"color-name": "~1.1.4"
},
"engines": {
"node": ">=7.0.0"
}
},
"node_modules/color-name": {
"version": "1.1.4",
"resolved": "https://registry.npmjs.org/color-name/-/color-name-1.1.4.tgz",
"integrity": "sha512-dOy+3AuW3a2wNbZHIuMZpTcgjGuLU/uBL/ubcZF9OXbDo8ff4O8yVp5Bf0efS8uEoYo5q4Fx7dY9OgQGXgAsQA==",
"dev": true,
"license": "MIT"
},
"node_modules/colorette": {
"version": "2.0.20",
"resolved": "https://registry.npmjs.org/colorette/-/colorette-2.0.20.tgz",
@ -3975,6 +4032,16 @@
"dev": true,
"license": "MIT"
},
"node_modules/has-flag": {
"version": "4.0.0",
"resolved": "https://registry.npmjs.org/has-flag/-/has-flag-4.0.0.tgz",
"integrity": "sha512-EykJT/Q1KjTWctppgIAgfSO0tKVuZUjhgMr17kqTumMl6Afv3EISleU7qZUzoXDFTAHTDC4NOoG/ZxU3EvlMPQ==",
"dev": true,
"license": "MIT",
"engines": {
"node": ">=8"
}
},
"node_modules/hast-util-to-html": {
"version": "9.0.5",
"resolved": "https://registry.npmmirror.com/hast-util-to-html/-/hast-util-to-html-9.0.5.tgz",
@ -4816,6 +4883,33 @@
"url": "https://github.com/sponsors/sindresorhus"
}
},
"node_modules/ompipe": {
"version": "1.0.2",
"resolved": "https://registry.npmjs.org/ompipe/-/ompipe-1.0.2.tgz",
"integrity": "sha512-D9SbKT2fqSkVxQtp0AffMdSYNZiScA9YOrS0iymyt6Q4wLWyUzvxhmFcJO8AxlwYLZY/IddwirgM46EfeNdq4A==",
"dev": true,
"license": "ISC",
"dependencies": {
"chalk": "4.1.2"
}
},
"node_modules/ompipe/node_modules/chalk": {
"version": "4.1.2",
"resolved": "https://registry.npmjs.org/chalk/-/chalk-4.1.2.tgz",
"integrity": "sha512-oKnbhFyRIXpUuez8iBMmyEa4nbj4IOQyuhc/wy9kY7/WVPcwIO9VA668Pu8RkO7+0G76SLROeyw9CpQ061i4mA==",
"dev": true,
"license": "MIT",
"dependencies": {
"ansi-styles": "^4.1.0",
"supports-color": "^7.1.0"
},
"engines": {
"node": ">=10"
},
"funding": {
"url": "https://github.com/chalk/chalk?sponsor=1"
}
},
"node_modules/onetime": {
"version": "7.0.0",
"resolved": "https://registry.npmjs.org/onetime/-/onetime-7.0.0.tgz",
@ -4842,6 +4936,28 @@
"regex-recursion": "^6.0.2"
}
},
"node_modules/openai": {
"version": "5.3.0",
"resolved": "https://registry.npmjs.org/openai/-/openai-5.3.0.tgz",
"integrity": "sha512-VIKmoF7y4oJCDOwP/oHXGzM69+x0dpGFmN9QmYO+uPbLFOmmnwO+x1GbsgUtI+6oraxomGZ566Y421oYVu191w==",
"dev": true,
"license": "Apache-2.0",
"bin": {
"openai": "bin/cli"
},
"peerDependencies": {
"ws": "^8.18.0",
"zod": "^3.23.8"
},
"peerDependenciesMeta": {
"ws": {
"optional": true
},
"zod": {
"optional": true
}
}
},
"node_modules/ora": {
"version": "8.2.0",
"resolved": "https://registry.npmjs.org/ora/-/ora-8.2.0.tgz",
@ -5360,6 +5476,22 @@
"url": "https://github.com/sponsors/isaacs"
}
},
"node_modules/simple-git": {
"version": "3.28.0",
"resolved": "https://registry.npmjs.org/simple-git/-/simple-git-3.28.0.tgz",
"integrity": "sha512-Rs/vQRwsn1ILH1oBUy8NucJlXmnnLeLCfcvbSehkPzbv3wwoFWIdtfd6Ndo6ZPhlPsCZ60CPI4rxurnwAa+a2w==",
"dev": true,
"license": "MIT",
"dependencies": {
"@kwsites/file-exists": "^1.1.1",
"@kwsites/promise-deferred": "^1.1.1",
"debug": "^4.4.0"
},
"funding": {
"type": "github",
"url": "https://github.com/steveukx/git-js?sponsor=1"
}
},
"node_modules/slash": {
"version": "5.1.0",
"resolved": "https://registry.npmjs.org/slash/-/slash-5.1.0.tgz",
@ -5516,6 +5648,19 @@
"node": ">=16"
}
},
"node_modules/supports-color": {
"version": "7.2.0",
"resolved": "https://registry.npmjs.org/supports-color/-/supports-color-7.2.0.tgz",
"integrity": "sha512-qpCAvRl9stuOHveKsn7HncJRvv501qIacKzQlO/+Lwxc9+0q2wLyv4Dfvt80/DPn2pqOBsJdDiogXGR9+OvwRw==",
"dev": true,
"license": "MIT",
"dependencies": {
"has-flag": "^4.0.0"
},
"engines": {
"node": ">=8"
}
},
"node_modules/tabbable": {
"version": "6.2.0",
"resolved": "https://registry.npmmirror.com/tabbable/-/tabbable-6.2.0.tgz",

View File

@ -1,8 +1,9 @@
{
"type": "module",
"scripts": {
"dev": "vitepress dev",
"build": "vitepress build",
"postbuild": "node scripts/move-image.js",
"postbuild": "node scripts/move-image.mjs",
"preview": "vitepress preview"
},
"dependencies": {
@ -18,7 +19,11 @@
"@nolebase/vitepress-plugin-inline-link-preview": "^2.17.1",
"@nolebase/vitepress-plugin-page-properties": "^2.17.1",
"@nolebase/vitepress-plugin-thumbnail-hash": "^2.17.1",
"chalk": "^5.4.1",
"mermaid": "^11.6.0",
"ompipe": "^1.0.2",
"openai": "^5.3.0",
"simple-git": "^3.28.0",
"vitepress-plugin-lightbox": "^1.0.2",
"vitepress-plugin-mermaid": "^2.0.17"
}

View File

@ -1,86 +1,91 @@
---
---
# Change Log
## [main] 0.1.1
- 修复 SSH 连接 Ubuntu 的情况下的部分 bug
- 修复 python 项目点击 openmcp 进行连接时,初始化参数错误的问题
- 取消 service 底层的 mcp 连接复用技术,防止无法刷新
- 修复连接后,可能无法在欢迎界面选择调试选项的 bug
* Fixed some bugs when connecting to Ubuntu via SSH
* Fixed the issue where the initialization parameters were incorrect when clicking openmcp to connect to a Python project
* Removed the service-level MCP connection reuse technique to prevent connection refresh issues
* Fixed a bug where debug options could not be selected on the welcome screen after connection
## [main] 0.1.0
- 新特性:支持同时连入多个 mcp server
- 新特性:更新协议内容,支持 streamable http 协议,未来将逐步取代 SSE 的连接方式
- impl issue#16:对于 uv 创建的 py 项目进行特殊支持,自动初始化项目,并将 mcp 定向到 .venv/bin/mcp 中,不再需要用户全局安装 mcp
- 对于 npm 创建的 js/ts 项目进行特殊支持:自动初始化项目
- 去除了 websearch 的设置,增加了 parallel_tool_calls 的设置parallel_tool_calls 默认为 true代表 允许模型在单轮回复中调用多个工具
- 重构了 openmcp 连接模块的基础设施,基于新的技术设施实现了更加详细的连接模块的日志系统.
- impl issue#15:无法复制
- impl issue#14:增加日志清除按钮
* New Feature: Support for connecting to multiple MCP servers simultaneously
* New Feature: Updated protocol to support Streamable HTTP, which will gradually replace SSE connection method
* Implemented issue #16: Special support for Python projects created by uv, automatically initializing the project and directing MCP to `.venv/bin/mcp` so that global MCP installation is no longer required
* Special support for npm-created js/ts projects: Automatically initializes the project
* Removed the "websearch" setting, added the "parallel\_tool\_calls" setting, with the default set to true, allowing the model to call multiple tools in a single round of response
* Refactored the OpenMCP connection module infrastructure, creating a more detailed logging system for connection modules
* Implemented issue #15: Unable to copy
* Implemented issue #14: Added a log clearing button
## [main] 0.0.9
- 修复 0.0.8 引入的bugsystem prompt 返回的是索引而非真实内容
- 测试新的发布管线
* Fixed the bug introduced in version 0.0.8 where the system prompt returned an index instead of the real content
* Tested the new release pipeline
## [main] 0.0.8
- 大模型 API 测试时更加完整的报错
- 修复 0.0.7 引入的bug修改对话无法发出
- 修复 bug富文本编辑器粘贴文本会带样式
- 修复 bug富文本编辑器发送前缀为空的字符会全部为空
- 修复 bug流式传输进行 function calling 时,多工具的索引串流导致的 JSON Schema 反序列化失败
- 修复 bug大模型返回大量重复错误信息
- 新特性:支持一次对话同时调用多个工具
- UI优化代码高亮的滚动条
- 新特性resources/list 协议的内容点击就会直接渲染,无需二次发送
- 新特性resources prompts tools 的结果的 json 模式支持高亮
* More complete error reporting when testing large model APIs
* Fixed the bug introduced in version 0.0.7 where conversation messages could not be sent
* Fixed the bug where rich-text editor pasted content retained styles
* Fixed the bug where sending a character with an empty prefix in the rich-text editor resulted in the content being empty
* Fixed the bug where function calling in streamable transfers caused JSON schema deserialization failure due to multi-tool index streaming
* Fixed the bug where large models returned a lot of repeated error messages
* New Feature: Support calling multiple tools in a single conversation
* UI: Optimized the code highlighting scrollbar
* New Feature: Resources/list protocol content now renders directly upon click without needing to be resent
* New Feature: JSON format support for highlighting results from resources, prompts, and tools
## [main] 0.0.7
- 优化页面布局,使得调试窗口可以显示更多内容
- 扩大默认的上下文长度 10 -> 20
- 增加「通用选项」 -> 「MCP工具最长调用时间 (sec)」
- 支持富文本输入框,现在可以将 prompt 和 resource 嵌入到输入框中 进行 大规模 prompt engineering 调试工作了
* Optimized page layout to display more content in the debug window
* Increased default context length from 10 to 20
* Added "General Options" -> "MCP Tool Max Call Duration (sec)"
* Added support for rich-text input, allowing prompts and resources to be embedded for large-scale prompt engineering debugging
## [main] 0.0.6
- 修复部分因为服务器名称特殊字符而导致的保存实效的错误
- 插件模式下左侧管理面板中的「MCP连接工作区」视图可以进行增删改查了
- 新增「安装的 MCP 服务器」,用于安装全局范围的 mcp server
- 增加引导页面
- 修复无法进行离线 OCR 的问题
- 修复全局安装的 mcp 服务器 name 更新的问题
* Fixed the issue of saving failure caused by special characters in the server name
* In plugin mode, the "MCP Connections (Workspace)" view in the left management panel now supports CRUD operations
* Added "Installed MCP Servers" for installing global MCP servers
* Added a guide page
* Fixed the issue of offline OCR not working
* Fixed the issue of global MCP server name not updating
## [main] 0.0.5
- 支持对已经打开过的文件项目进行管理
- 支持对用户对应服务器的调试工作内容进行保存
- 支持连续工具调用和错误警告的显示
- 实现小型本地对象数据库,用于对对话产生的多媒体进行数据持久化
- 支持对于调用结果进行一键复现
- 支持对中间结果进行修改
- 支持 system prompt 的保存和修改
* Supported managing already opened file projects
* Supported saving debugging work related to user servers
* Supported continuous tool calls and error warnings display
* Implemented a small local object database for persisting multimedia data generated during conversations
* Supported one-click reproduction of call results
* Supported modifying intermediate results
* Supported saving and modifying system prompts
## [main] 0.0.4
- 修复选择模型后点击确认跳转回 deepseek 的 bug
- 修复 mcp 项目初始化点击工具全部都是空的 bug
- 修复无法重新连接的 bug
- 支持自定义第三方 openai 兼容的模型服务
* Fixed the bug where selecting a model and clicking confirm would revert back to DeepSeek
* Fixed the bug where MCP project initialization clicked tools were all empty
* Fixed the bug where reconnection was not possible
* Supported custom third-party OpenAI-compatible model services
## [main] 0.0.3
- 增加每一条信息的成本统计信息
- 修复初始化页面路由不为 debug 导致页面空白的 bug
* Added cost statistics for each message
* Fixed the bug where the initial page route not being set to "debug" led to a blank page
## [main] 0.0.2
- 优化页面布局
- 解决更新标签页后打开无法显示的 bug
- 解决不如输入组件按下回车直接黑屏的 bug
- 更加完整方便的开发脚本
* Optimized page layout
* Fixed the bug where tabs would not display after update
* Fixed the bug where pressing Enter in input components led to a black screen
* Made development scripts more complete and convenient
## [main] 0.0.1
- 完成 openmcp 的基础 inspector 功能
- 完成配置加载,保存,大模型设置
- 完成标签页自动保存
- 完成大模型对话窗口和工具调用
- 完成对 vscode 和 trae 的支持
* Completed basic OpenMCP inspector functionality
* Completed configuration loading, saving, and large model settings
* Completed automatic tab saving
* Completed large model conversation window and tool calls
* Completed support for VSCode and Trae

View File

@ -1,26 +1,16 @@
---
---
# Resource Channel
# 资源频道
## Resources
## 资源
* [MCP Series Video Tutorials (Under Construction)](https://www.bilibili.com/video/BV1zYGozgEHc)
* [Jin Hui's MCP Series Blog](https://kirigaya.cn/blog/search?q=mcp)
* [OpenMCP Official Documentation](https://kirigaya.cn/openmcp/plugin-tutorial)
* [openmcp-sdk Official Documentation](https://kirigaya.cn/openmcp/sdk-tutorial)
[MCP 系列视频教程(正在施工中)](https://www.bilibili.com/video/BV1zYGozgEHc)
## Channels
[锦恢的 mcp 系列博客](https://kirigaya.cn/blog/search?q=mcp)
[OpenMCP 官方文档](https://kirigaya.cn/openmcp/plugin-tutorial)
[openmcp-sdk 官方文档](https://kirigaya.cn/openmcp/sdk-tutorial)
## 频道
[知乎圈子 - OpenMCP 博物馆](https://www.zhihu.com/ring/host/1911121615279849840)
[QQ群 - OpenMCP 正式级技术组](https://qm.qq.com/cgi-bin/qm/qr?k=C6ZUTZvfqWoI12lWe7L93cWa1hUsuVT0&jump_from=webapi&authKey=McW6B1ogTPjPDrCyGttS890tMZGQ1KB3QLuG4aqVNRaYp4vlTSgf2c6dMcNjMuBD)
[Discord 频道 - OpenMCP 交流群](https://discord.gg/SKTZRf6NzU)
[OpenMCP 源代码](https://github.com/LSTM-Kirigaya/openmcp-client)
[OpenMCP 文档仓库](https://github.com/LSTM-Kirigaya/openmcp-document)
* [Zhihu Circle - OpenMCP Museum](https://www.zhihu.com/ring/host/1911121615279849840)
* [QQ Group - OpenMCP Official Technical Group](https://qm.qq.com/cgi-bin/qm/qr?k=C6ZUTZvfqWoI12lWe7L93cWa1hUsuVT0&jump_from=webapi&authKey=McW6B1ogTPjPDrCyGttS890tMZGQ1KB3QLuG4aqVNRaYp4vlTSgf2c6dMcNjMuBD)
* [Discord Channel - OpenMCP Discussion Group](https://discord.gg/SKTZRf6NzU)
* [OpenMCP Source Code](https://github.com/LSTM-Kirigaya/openmcp-client)
* [OpenMCP Documentation Repository](https://github.com/LSTM-Kirigaya/openmcp-document)

View File

@ -1,34 +1,33 @@
# 参与 OpenMCP 开发
# Contributing to OpenMCP Development
## How to Contact Us if You Want to Contribute?
## 想要参与开发,如果联系我们?
If you'd like to get involved in the development of OpenMCP, you can contact us through the following channels:
如果你也想要参与 OpenMCP 的开发,你可以通过如下的方式联系到我们:
* <a href="https://qm.qq.com/cgi-bin/qm/qr?k=C6ZUTZvfqWoI12lWe7L93cWa1hUsuVT0&jump_from=webapi&authKey=McW6B1ogTPjPDrCyGttS890tMZGQ1KB3QLuG4aqVNRaYp4vlTSgf2c6dMcNjMuBD" target="_blank">Join the OpenMCP Technical Group</a> to discuss with us directly.
* Contact Jin Hui via email at [1193466151@qq.com](mailto:1193466151@qq.com).
* Submit a [Feature Request](https://github.com/LSTM-Kirigaya/openmcp-client/issues) or fork the code and [submit a PR](https://github.com/LSTM-Kirigaya/openmcp-client/pulls).
- <a href="https://qm.qq.com/cgi-bin/qm/qr?k=C6ZUTZvfqWoI12lWe7L93cWa1hUsuVT0&jump_from=webapi&authKey=McW6B1ogTPjPDrCyGttS890tMZGQ1KB3QLuG4aqVNRaYp4vlTSgf2c6dMcNjMuBD" target="_blank">加入 OpenMCP正式级技术组</a> 来和我们直接讨论。
- 联系锦恢的邮箱 1193466151@qq.com
- 提交 [「Feature Request」类型的 issue](https://github.com/LSTM-Kirigaya/openmcp-client/issues) 或者 fork 代码后 [提交 PR](https://github.com/LSTM-Kirigaya/openmcp-client/pulls)
## What Can I Do for OpenMCP?
## 我能为 OpenMCP 做些什么?
Although OpenMCP might seem technically complicated, there are many things you can contribute to the project:
虽然 OpenMCP 本体看起来技术乱七八糟,但是实际上,阁下可以为 OpenMCP 做的事情远比您想象的多。
* Contribute code or fix bugs by submitting a PR, if you're willing.
* Design new features for the project. You dont necessarily need to write code — just proposing meaningful features in the [MVP Requirement Plan](https://github.com/LSTM-Kirigaya/openmcp-client?tab=readme-ov-file#%E9%9C%80%E6%B1%82%E8%A7%84%E5%88%92) is already a great contribution.
* Develop examples of different agent applications using OpenMCP, or refine new methodologies for developing AI Agents. With your permission, we will integrate your tutorials into this site.
- 通过提交 PR 贡献代码或者修复 bug如果您愿意的话。
- 为我们的项目设计新的功能,这未必一定需要阁下写代码,只是在 [MVP 需求规划](https://github.com/LSTM-Kirigaya/openmcp-client?tab=readme-ov-file#%E9%9C%80%E6%B1%82%E8%A7%84%E5%88%92) 中提出有意义的功能也是很不错的贡献。
- 通过 OpenMCP 来完成不同的 agent 开发的例子或者打磨新的开发 AI Agent 的方法论。在征得阁下本人同意后,我们将会将你的教程整合到这个网站中。
By contributing in any of the above ways, youll become an official contributor to OpenMCP.
通过向 OpenMCP 贡献以上内容或是其他,阁下将能成为 OpenMCP 的贡献者。
## Contribute to OpenMCP Documentation Site
## 为 openmcp 文档站点添砖加瓦
If you'd like to fix professional errors or contribute examples to the OpenMCP documentation site, please fork [openmcp-document](https://github.com/LSTM-Kirigaya/openmcp-document) and submit a PR.
如果您想要为 openmcp 文档站点修复专业错误或者贡献您的例子,请 fork [openmcp-document](https://github.com/LSTM-Kirigaya/openmcp-document) 提交 PR 。
If you're unfamiliar with GitHub operations, you can [join the OpenMCP development group](https://qm.qq.com/cgi-bin/qm/qr?k=C6ZUTZvfqWoI12lWe7L93cWa1hUsuVT0&jump_from=webapi&authKey=McW6B1ogTPjPDrCyGttS890tMZGQ1KB3QLuG4aqVNRaYp4vlTSgf2c6dMcNjMuBD) and contact the admin Jin Hui. Please provide the following details:
如果您对 github 的操作不熟悉,请 [进入 OpenMCP 开发群](https://qm.qq.com/cgi-bin/qm/qr?k=C6ZUTZvfqWoI12lWe7L93cWa1hUsuVT0&jump_from=webapi&authKey=McW6B1ogTPjPDrCyGttS890tMZGQ1KB3QLuG4aqVNRaYp4vlTSgf2c6dMcNjMuBD) 并联系管理员锦恢,请提供如下几件东西:
* The content you want to contribute.
* Your GitHub account (profile link).
* Your email address.
* The ID and avatar you'd like to display on the site.
* Any links you'd like associated with your profile (e.g., Bilibili, Zhihu, personal website).
- 您希望贡献的内容
- 您的 github 账号(主页链接)
- 您的邮箱
- 您希望展现在网站上的 ID 和 头像
- 您希望关联的网站链接比如b站知乎个人网站什么的
完成添加后,您就可以向 [openmcp-document](https://github.com/LSTM-Kirigaya/openmcp-document) 提交 PR 了。
After adding your information, youll be able to submit PRs to [openmcp-document](https://github.com/LSTM-Kirigaya/openmcp-document).

View File

@ -1,68 +0,0 @@
const fs = require('fs');
const path = require('path');
// 要排除的文件夹
const excludedDirs = ['node_modules', '.vitepress', '.openmcp', 'scripts'];
// 递归搜索图片文件夹
function findImageDirs(rootDir, currentDir = '', results = []) {
const fullPath = path.join(rootDir, currentDir);
const items = fs.readdirSync(fullPath);
for (const item of items) {
const itemPath = path.join(currentDir, item);
const fullItemPath = path.join(rootDir, itemPath);
const stat = fs.statSync(fullItemPath);
if (stat.isDirectory()) {
if (item === 'image' || item === 'images') {
results.push(itemPath);
} else if (!excludedDirs.includes(item)) {
findImageDirs(rootDir, itemPath, results);
}
}
}
return results;
}
// 复制文件夹
function copyDir(src, dest) {
if (!fs.existsSync(dest)) {
fs.mkdirSync(dest, { recursive: true });
}
const items = fs.readdirSync(src);
for (const item of items) {
const srcPath = path.join(src, item);
const destPath = path.join(dest, item);
const stat = fs.statSync(srcPath);
if (stat.isDirectory()) {
copyDir(srcPath, destPath);
} else {
fs.copyFileSync(srcPath, destPath);
}
}
}
// 主函数
function main() {
const workspaceDir = path.join(__dirname, '..');
const distDir = path.join(workspaceDir, '.vitepress', 'dist');
// 查找所有图片文件夹
const imageDirs = findImageDirs(workspaceDir);
// 复制到目标目录
for (const dir of imageDirs) {
const src = path.join(workspaceDir, dir);
const dest = path.join(distDir, dir);
console.log(`Copying ${dir} to ${dest}`);
copyDir(src, dest);
}
console.log('Done!');
}
main();

80
scripts/move-image.mjs Normal file
View File

@ -0,0 +1,80 @@
import fs from 'fs';
import path from 'path';
import { fileURLToPath } from 'url';
import chalk from 'chalk';
const __filename = fileURLToPath(import.meta.url);
const __dirname = path.dirname(__filename);
const excludedDirs = ['node_modules', '.vitepress', '.openmcp', 'scripts'];
// 递归搜索图片文件夹
function findImageDirs(rootDir, currentDir = '', results = []) {
const fullPath = path.join(rootDir, currentDir);
const items = fs.readdirSync(fullPath);
for (const item of items) {
const itemPath = path.join(currentDir, item);
const fullItemPath = path.join(rootDir, itemPath);
const stat = fs.statSync(fullItemPath);
if (stat.isDirectory()) {
if (item === 'image' || item === 'images') {
results.push(itemPath);
} else if (!excludedDirs.includes(item)) {
findImageDirs(rootDir, itemPath, results);
}
}
}
return results;
}
// 复制文件夹
function copyDir(src, dest) {
if (!fs.existsSync(dest)) {
fs.mkdirSync(dest, { recursive: true });
}
const items = fs.readdirSync(src);
for (const item of items) {
const srcPath = path.join(src, item);
const destPath = path.join(dest, item);
const stat = fs.statSync(srcPath);
if (stat.isDirectory()) {
copyDir(srcPath, destPath);
} else {
fs.copyFileSync(srcPath, destPath);
}
}
}
// 修改后的主函数
function main() {
const workspaceDir = path.join(__dirname, '..');
const distDir = path.join(workspaceDir, '.vitepress', 'dist');
console.log(chalk.yellow.bold('Searching for image directories...'));
// 查找所有图片文件夹
const imageDirs = findImageDirs(workspaceDir);
if(imageDirs.length === 0) {
console.log(chalk.red('No image directories found!'));
return;
}
console.log(chalk.green(`Found ${imageDirs.length} image directories:`));
// 复制到目标目录
for (const dir of imageDirs) {
const src = path.join(workspaceDir, dir);
const dest = path.join(distDir, dir);
console.log(chalk.blue(`Copying ${dir} to ${dest}`));
copyDir(src, dest);
}
console.log(chalk.green.bold('Done!'));
}
main();

11
scripts/simple-git.mjs Normal file
View File

@ -0,0 +1,11 @@
import simpleGit from 'simple-git';
const git = simpleGit();
export async function getLatestCommitId() {
// 方法1使用log获取最新commit
const log = await git.log({n: 1});
console.log('Latest commit ID:', log.latest.hash);
}
// 如果需要在模块外调用
await getLatestCommitId();

103
scripts/translate.mjs Normal file
View File

@ -0,0 +1,103 @@
import { OmPipe } from 'ompipe';
import { OpenAI } from 'openai';
import chalk from 'chalk';
import fs from 'fs';
import path from 'path';
import simpleGit from 'simple-git';
import { fileURLToPath } from 'url';
const __dirname = path.dirname(fileURLToPath(import.meta.url));
const project = path.join(__dirname, '..');
const git = simpleGit();
if (!process.env.DEEPSEEK_API_TOKEN) {
console.error(chalk.red('请设置环境变量 DEEPSEEK_API_TOKEN'));
process.exit(1);
}
// 初始化DeepSeek客户端
const client = new OpenAI({
apiKey: process.env.DEEPSEEK_API_TOKEN,
baseURL: 'https://api.deepseek.com/v1'
});
const log = await git.log({n: 1});
const lastCommitMessage = log.latest.hash;
const pipe = new OmPipe('translate-docs:' + lastCommitMessage.toString());
async function translateText(text, targetLangID) {
const prompt = `将以下内容准确翻译为ISO编码为 ${targetLangID} 的语言。请严格遵循以下要求翻译内容:
1. 不要添加任何解释说明或额外文本
2. 直接返回翻译后的内容不要包含任何前缀或后缀
需要翻译的内容
${text}`;
const response = await client.chat.completions.create({
model: 'deepseek-chat',
messages: [
{ role: 'system', content: '你是一名专业的翻译助手' },
{ role: 'user', content: prompt }
],
temperature: 0.6
});
return response.choices[0].message.content;
}
// 使用示例
// const translated = await translateText('你好', 'ja');
// console.log(translated); // "こんにちは"
async function processFile(filePath, targetPath, targetLangID) {
const content = fs.readFileSync(filePath, 'utf8');
if (content.trim() === '') {
console.log(chalk.yellow(`跳过空文件: ${filePath}`));
return;
}
const translated = await translateText(content, targetLangID);
if (translated.trim() === '') {
throw new Error(`翻译失败: ${filePath}`);
}
fs.writeFileSync(targetPath, translated);
}
async function traverseAndTranslate(srcDir, destDir, targetLangID) {
const files = fs.readdirSync(srcDir);
for (const file of files) {
const fullPath = path.join(srcDir, file);
const stat = fs.statSync(fullPath);
if (stat.isDirectory()) {
const newDestDir = path.join(destDir, file);
if (!fs.existsSync(newDestDir)) {
fs.mkdirSync(newDestDir, { recursive: true });
console.log(chalk.cyan(`创建目录: ${newDestDir}`));
}
await traverseAndTranslate(fullPath, newDestDir, targetLangID);
} else if (file.endsWith('.md')) {
const destPath = path.join(destDir, file);
// 添加任务
pipe.add('translate:' + destPath, async () => {
await processFile(fullPath, destPath, targetLangID);
}, { critical: false, maxRetryCount: 2 });
}
}
}
const zhDir = path.join(__dirname, '../zh');
const jaDir = path.join(__dirname, '../ja');
const enDir = path.join(__dirname, '..');
console.log(chalk.bold('开始翻译任务'));
await traverseAndTranslate(zhDir, jaDir, 'ja');
// await traverseAndTranslate(zhDir, enDir);
await pipe.start();
console.log(chalk.bold.green('✓ 所有文件翻译完成'));

View File

@ -1,7 +1,3 @@
---
---
# Change Log
## [main] 0.1.1

View File

@ -1,6 +1,3 @@
---
---
# 资源频道
## 资源