前言
前前言
见帖子分享一个python做的MCP应用
在deepin论坛发现UOS AI最近集成了MCP,然后还有个MCP场景大发现活动,就试了试,万一赢了个小鼠标呢。
所以就找llm帮忙做了一个mcp应用,调用本地ollama的(现在也可以用在线api了)。
真前言
上次这个活动也是成功拿到了二等奖,有很多奖品,就顺便更新并整理到了Github上
链接🔗:GitHub
简介
一个用python做的mcp应用,会根据用户输入的内容执行以下操作:
发送要求—>mcp把要求发给大模型(ollama或api)—>生成python代码以实现这个功能—>安装相应依赖—>自动执行。
- 目前支持ollama和在线api
- 添加linux上快速初始化脚本(方便UOS AI和其他客户端应用用户导入)
- 完善依赖安装
- 细化执行步骤
Linux使用方法
请前往README查看详细方法,这里只分享linux上简单的使用方法
# 克隆项目
git clone https://github.com/SkyShadowHero/McpCoderRunner.git
cd McpCoderRunner
# 运行脚本
./first_launch.sh
然后它会弹出 import_mcp.json 和 mcp_config.json 两个文本
前者里的内容直接复制到支持导入mcp服务的客户端里里导入即可,后者里可以配置模型,如ollama或在线api,
# 使用ollama示例:
{
"llm_config": {
"model": "deepseek-coder-v2:16b",
"base_url": "http://127.0.0.1:11434",
"api_key": "ollama"
}
}
# 使用在线 API (如 DeepSeek )示例:
{
"llm_config": {
"model": "deepseek-chat",
"base_url": "https://api.deepseek.com",
"api_key": "sk-xxxxxxxxxxxxxxxxxxxx"
}
}
建议使用deepseek-coder、qwen3-coder等模型
简单演示
最后还是希望在github里点个star
版权信息
- 文章作者: 天影大侠
- 文章链接: https://blog.skyshadow.fun/posts/33/
- 版权声明: 本博客所有文章除特别声明外,均采用CC BY-NC-SA 4.0许可协议 。转载请注明来源本站
