分享一个mcp应用,可以让你的大模型生成python代码并自动执行

字数:368 阅读:约2min

前言

前前言

见帖子分享一个python做的MCP应用 在deepin论坛发现UOS AI最近集成了MCP,然后还有个MCP场景大发现活动,就试了试,万一赢了个小鼠标呢。
所以就找llm帮忙做了一个mcp应用,调用本地ollama的(现在也可以用在线api了)。

真前言

上次这个活动也是成功拿到了二等奖,有很多奖品,就顺便更新并整理到了Github上
链接🔗:GitHub

简介

一个用python做的mcp应用,会根据用户输入的内容执行以下操作:

发送要求—>mcp把要求发给大模型(ollama或api)—>生成python代码以实现这个功能—>安装相应依赖—>自动执行。

  • 目前支持ollama和在线api
  • 添加linux上快速初始化脚本(方便UOS AI和其他客户端应用用户导入)
  • 完善依赖安装
  • 细化执行步骤

Linux使用方法

请前往README查看详细方法,这里只分享linux上简单的使用方法

# 克隆项目
git clone https://github.com/SkyShadowHero/McpCoderRunner.git
cd McpCoderRunner
# 运行脚本
./first_launch.sh

然后它会弹出 import_mcp.jsonmcp_config.json 两个文本
前者里的内容直接复制到支持导入mcp服务的客户端里里导入即可,后者里可以配置模型,如ollama或在线api,

# 使用ollama示例:
{
"llm_config": {
"model": "deepseek-coder-v2:16b",
"base_url": "http://127.0.0.1:11434",
"api_key": "ollama"
}
}

# 使用在线 API (如 DeepSeek )示例:
{
    "llm_config": {
        "model": "deepseek-chat",
        "base_url": "https://api.deepseek.com",
        "api_key": "sk-xxxxxxxxxxxxxxxxxxxx"
    }
}

建议使用deepseek-coder、qwen3-coder等模型

简单演示

获取bing今日美图(使用UOS AI演示,已倍数)
GIFSpeed.gif

最后还是希望在github里点个star

版权信息