人工智能(AI)和大型语言模型(LLMs)在近年来取得了显著的进步,其强大的文本理解和生成能力已使 其在各行各业得到日益广泛的应用。然而,尽管 LLMs 在处理自然语言方面表现出色,但它们也存在一些固有 的局限性。例如,它们主要依赖于训练数据,缺乏对实时信息的直接访问能力,并且与外部工具进行交互的方 式也缺乏统一的标准。模型上下文协议(MCP)正是一种旨在解决这些局限性的新兴技术,通过提供一种标准 化的方式将 LLMs 与外部数据源和工具连接起来,从而显著增强其功能和应用范围。 本报告旨在深入探讨 MCP 的定义、目标、设计原理、技术规范、应用场景、优势、局限性,并将其 应用于金融领域,构建了 Fin MCP Server,Fin MCP Server 不仅支持多种数据提取和分析工具,还集成了量 化研究中的关键功能,如策略回测和因子优化。通过与 AI 代码编辑工具(如 Cursor 和 Trae)结合,Fin MCP Server 能够实现从数据获取到策略执行的自动化,也能够在一些 AI 助手,如 Cherry Studio 或者手机 APP 中进行调用,极大地提高了研究效率。
2.1 背景
在 AI 集成中,传统做法是为每个数据源或工具(如 GitHub、Slack 或企业数据库)开发定制接口。这种方 法导致了“M×N 问题”:M 个 AI 应用需要与 N 个工具或系统集成,产生 M×N 个定制实现。这不仅增加了开 发工作量,还导致实现不一致,难以维护和扩展。此外,AI 模型通常无法直接访问实时数据,限制了其生成上 下文相关响应的能力。 MCP 通过提供标准化的协议,将 M×N 问题简化为 M+N 问题。工具创建者开发 N 个 MCP 服务器(每个系 统一个),而 AI 应用开发者构建 M 个 MCP 客户端(每个应用一个)。这种方法类似于 USB 标准,允许不同设备 通过统一接口连接,从而显著降低集成复杂性。MCP 还支持在不同 LLM 提供商之间切换,增强了开发者的灵活 性。
2.2 MCP 定义
模型上下文协议(MCP)是由 Anthropic 开发一个开放标准协议,其核心目标是为大型语言模型(LL Ms) 应用与外部数据源和工具之间建立安全且双向的连接,从而实现无缝集成 。简单来说,MCP 就像人工智能世 界的 HTTP 协议,它为不同的 AI 模型提供了一种标准化的方式来连接各种数据来源和工具,从而极大地简化了 AI 应用的开发过程 。MCP 充当了 LLMs 与外部系统之间的桥梁,使得 LLMs 能够进行结构化的应用程序编程接 口(API)调用,并以一种一致且安全的方式进行交互 。

MCP 的主要目标在于克服 LLMs 仅仅依赖于其训练数据的局限性,使其能够根据需要访问相关的上下文信 息,并执行更为广泛的任务 。该协议通过定义一套通用的规则和格式,使得 LLMs 应用可以在需要时动态地获 取相关信息并执行操作,从而显著增强其功能和应用范围 。此外,MCP 的目标还包括帮助前沿的 AI 模型产生 更好、更相关的响应 ,并为大型模型和外部工具之间搭建高效的信息传递通道,使得开发者无需为每个外部工 具编写复杂的接口 。从更宏观的角度来看,MCP 旨在实现允许系统向 AI 模型提供上下文信息,并且可以在不 同的集成场景中通用化,从而定义 AI 代理(Agent)的新范式 。 MCP 旨在通过允许 LLMs 访问和利用外部数据源和工具来弥合 LLMS 缺乏实时信息和与现实世界互动的能 力,使其更具动态性和上下文感知能力。将 MCP 比作“AI 世界的 HTTP” 突显了其成为基本通信标准的雄心, 这将会促进一个更加互联和互操作的人工智能生态系统。正如 HTTP 通过为 Web 浏览器和服务器提供标准化的 通信方式彻底改变了互联网一样,MCP 也旨在为 AI 模型和外部系统做同样的事情。这种标准化可能会带来更 高的效率、创新和人工智能领域的协作。
2.3 Function Calling 与 MCP
Function Calling 是大型语言模型(LLM)中的一项功能,允许模型在生成响应时调用预定义的函数。这些 函数可以执行各种任务,如获取数据、执行计算或与外部系统交互。通过 Function Calling 开发者可以扩展模型 的能力,使其能够处理超出纯文本生成的任务。 例如,在 OpenAI 的 GPT 模型中,开发者可以定义一系列函数,并提供它们的描述和参数。模型可以根据 用户的输入决定是否调用这些函数,并生成相应的函数调用参数。然后,应用负责执行这些函数并将结果反馈 给模型。
Function Calling 主要用于允许模型调用预定义的函数来执行特定任务,增强模型的功能。例如,模型可以 通过调用函数获取天气信息或发送电子邮件。而 MCP 提供一个标准化的协议,用于将 AI 应用与外部数据源和 工具集成,支持更广泛的交互,包括资源访问、提示模板、工具调用和采样。MCP 旨在打破数据孤岛,提升 AI 应用的上下文感知能力。 与 MCP 相比,Function Calling 平台依赖性强,不同 LLM 平台的 API 实现差异较大,切换模型时需要修 改代码,增加了适配成本。
3.1 框架结构
MCP 采用客户端-服务器架构,核心组件包括:
MCP 主机(Hosts):MCP 主机是一个 AI 应用,它提供了一个执行基于 AI 的任务的环境,同时运行MCP 客户端,如 Claude Desktop、集成开发环境(IDE)或自定义 AI 工具,负责发起数据或工具请 求。
MCP 客户端(Clients):在主机内运行,负责与 MCP 服务器建立 1:1 连接,处理通信逻辑。它向 MCP 服务器发起请求,查询可用的功能,并检索描述服务器能力的响应。这确保了主机与外部工 具之间的无缝交互。除了管理请求和响应外,MCP 客户端处理来自 MCP 服务器的通知,提供有关 任务进度和系统状态的实时更新。它还执行采样以收集工具使用情况和性能数据,从而实现优化 和明智的决策。
MCP 服务器(Servers):轻量级程序,暴露特定功能,如访问本地文件、数据库或远程 API。主要 提供三种核心功能:工具,资源以及提示词。 MCP 客户端与服务器间的通信基于 JSON-RPC 2.0,一种轻量级远程过程调用协议,支持高效、标准化的消 息交换。MCP 主要支持两种传输机制:
标准输入/输出 (stdio): 这种机制适用于客户端和服务器在同一台机器上运行的场景。它简单可靠, 不需要复杂的网络配置,非常适合本地开发和部署 。
通过服务器发送事件 (SSE) 的 HTTP: 在这种机制下,客户端通过标准的 HTTP 协议与服务器建立一 个持久连接。这种方式特别适合分布式部署和跨网络访问的场景。
3.2 核心功能
MCP 服务器和客户端可以提供多种功能:
服务器功能:
资源 (Resources): 服务器可以向客户端提供各种形式的上下文和数据,供用户或 AI 模型使 用。这些资源可以包括本地文件、数据库内容、API 返回的数据等 。
提示词 (Prompts): 服务器可以提供预定义的模板化消息和工作流,供用户使用。这些提示 旨在优化 AI 的响应和任务执行效率,确保一致性,并适用于各种场景,如客户支持和注 释任务 。
工具 (Tools): 服务器可以暴露可供 AI 模型执行的函数。这些工具使得 AI 模型能够获取外部 数据或执行特定的操作,例如调用外部 API、查询数据库、执行代码等,从而扩展了 LLMs 的能力 。
客户端功能: o 采样 (Sampling): 客户端可以向服务器提供“采样”功能,允许服务器发起代理行为和递归 的 LLM 交互。这为构建更复杂和自主的工作流程提供了可能 。
3.3 工作流程
模型上下文协议(MCP)的工作流程通常涉及以下几个关键步骤:
初始化:MCP 主机启动客户端,连接到一个或多个 MCP 服务器。
能力发现:客户端通过 JSON-RPC 查询服务器提供的资源、提示、工具和采样能力。
交互:主机根据用户需求调用服务器功能,例如检索资源数据或执行工具。
响应:服务器处理请求并返回结果,客户端将结果传递给主机,供 AI 生成响应。 这种标准化流程确保了 AI 应用与不同数据源和工具的无缝交互。

3.4 生态系统
作为一个开放标准,MCP 鼓励更多的开发者参与其中,共同创建更多功能强大的工具和服务器,从而形成一 个繁荣的 AI 应用生态系统 。自 2024 年 11 月发布以来,MCP 协议迅速吸引了 AI 公司的关注,尤其在今年 3 月 份 Manus 发布之后,各类基于 MCP 的复现框架使得各家迅速加大 MCP 布局,OpenAI 也在 3 月底对 A gent SDK 进行了重大更新支持 MCP 服务,目前已有超过 1 万个 MCP Server 工具。为各类 AI 工具开发带来的极大 的便利。
除了 Server 端外,目前 AI 客户端也纷纷加入对于 MCP 的支持。使得用户能够轻松连接各类 MCP Server。包 括:Anthropic 官方的 Claude Desktop,提供了完全支持 MCP 协议,包括资源(Resources)、提示 词 模板 (Prompt Templates)、工具集成(Tool Integration)和本地服务器连接(Local Server Connections);IDE 工具, Cursor 以及 Trae,通过数据交互与代码执行,能够规划完成各类复杂任务;VS Code 插件 Cline,支持各类 MCP Server 以及 LLMs;AI 对话工具 Cherry Studio,集成众多 AI 功能,方便调用等。
Fin MCP Server 是我们开发的一个金融研究类 MCP Server,提供了本地及云端两种部署方式,集成各种投研工 具,可以解决主观研究以及量化研究中的以下痛点: 主观研究员快速使用数据提取分析工具(数据提取、论文查询、新闻研报总结、指标计算、图表生成 等)以及构建量化策略(策略回测,绩效分析)。 将量化研究员日常频繁使用的工具(数据库接口、因子计算、因子优化)加入 Fin MCP Server,使用对 话形式完成日常工作 。 其他一些大模型分析工具(AI 市场总结、个股总结等)。 自定义功能等。
4.1 MCP Server 开发
开发者可以按照 MCP 协议规范开发 Server,Anthropic 提供了 Python、TypeScript、Java、Kotlib、C# 等 SDK 方便开发者开发 Server。 以 Python SDK 为例,在 Server 端需要实现以下功能:创建公开资源、提示和工具的 MCP 服务器。 使用标准传输方式,如 stdio 和 SSE。处理所有 MCP 协议消息和生命周期事件。 在开发时,可以使用官方的 FastMCP 包进行开发,FastMCP 服务器是 MCP 协议的核心接口,它能够自动处 理连接管理、协议合规性和消息路由。
同时,Anthropic 也提供了更加底层的开发工具 Low-level Server,Low-Level Server 能够获得更多控制,可以 完全访问协议,并允许自定义服务器的各个方面,包括通过 lifespan API 进行生命周期管理。但是经过我们实测, 目前部分 Client 对于 Low-level Server 的支持存在问题,需要开发者根据实际情况进行选择。
4.2 Fin MCP Server 介绍
Fin MCP Server 是我们精心打造的金融研究 MCP Server,旨在为金融研究人员提供高效、智能的研究工具。
4.2.1 主要功能
Fin MCP Server 提供了本地及云端两种部署方式,集成各种投研工具。主要功能包括: 数据提取:获取各类公开数据,包括行情,新闻,研报摘要,论文等 。数据分析:计算技术指标,因子 ICIR 等 。策略回测:结合 IDE 构建交易策略并执行回测代码,分析策略绩效 。 市场分析:结合行情、新闻、研报对市场或者个股的 AI 复盘功能 。 因子优化:结合 LLM 对已有因子的 ICIR 进行优化。 其他定制功能等。
4.2.2 部署方法
MCP 两种传输机制:标准输入/输出 (stdio)以及服务器发送事件 (HTTP SSE) 。其中 stdio 简单可靠,一般用 于客户端和服务器部署在同一机器的场景。而 SSE 客户端通过标准的 HTTP 协议与服务器建立一个持久连接, 这种方式特别适合分布式部署和跨网络访问的场景。 以 stdio 为例,我们在 VS Code 的 Cline 插件中部署本地 Fin MCP Server。首先在 VS Code 的插件市场中安装 Cline 插件,点击插件右上角的 MCP Server 会出现相关选项,其中 marketplace 为社区公开的 MCP Server,提供 了各种丰富的功能。
如果 MCP Server 在本地运行,需要通过在 Installed 中配置相关的 MCP Server config。配置方法如下图所 示。Config 中核心为 server 的运行命令,这里我们使用 uv 来进行代码管理和运行,uv 是基于 Rust 语言开 发的下一代 Python 包管理工具,旨在替代传统的工具链(如 pip、virtualenv、poetry 等),提供一站式解 决方案。配置完成后,LLM 即可根据对话内容自主选择是否调用相关工具。在 Cursor/Trae 中也支持通过 config 方式配置 MCP Server。
如果将Fin MCP Server部署在远程服务器上,可以在Cline的config 中进行配置,也可以在Remote Servers 进行配置,Remote Servers 配置方法比较简单,在远程服务器上以 SSE 模式运行 MCP Server 之后,在 Cline 端只需要填写 Server Name 和 Server URL 即可。

SSE 模式下,相关的代码无需再本地运行,因此 client 端无需具备代码运行的环境和功能,这样带来的 好处是可以在一些支持 MCP 的 AI 工具,例如 Cherry Studio 或者手机 APP 上使用 Fin MCP Server。
4.3 Fin MCP Server 使用
Fin MCP Server 部署完成后,会展示目前所支持工具列表,接下来以一些具体任务为样例展示 Fin MCP 的功 能。
4.3.1 数据提取分析
Fin MCP Server 可以提取指数/个股的行情数据,并结合大模型对行情进行解读。
Fin MCP Server 也支持宏观,策略研报摘,新闻的提取分析等。
4.3.2 AI 实时复盘
利用以上实时获取的行情,研报,新闻信息,再结合大模型综合分析的能力可以构建 AI 实时复盘工具。
4.3.3 指标计算
除了以上文本分析的功能之外,Fin MCP Server 同时支持各类技术指标的计算并进行分析。
4.3.4 交易策略构建及回测
结合 cursor 强大的代码能力以及 Fin MCP Server 提供的数据,我们可以利用 LLM 自动构建交易策略并进 行回测,在 cursor 中会自动运行代码,且进行 debug,省去了大量的工作,甚至可以让 LLM 自行对策略进 行优化。
4.3.5 因子分析及优化
在“逐鹿”专题报告(二十三)中,结合 LLM 的分析推理能力,我们构建了 AI Workflow 用于因子的生成 和改进,我们将其中相应的工具集成进 Fin MCP Server 之中,便可随时进行因子的分析与优化工作。 目前 Fin MCP Server 支持各类时序、截面算子,且采用了缓存,流式计算,Cython 的方法进行了优化,能 够高效快速的进行因子计算及验证。
在进行因子优化时,只需提供相应的因子表达式即可,以 Ts_max(high-low,20)/close 为例,经过 5 轮优化, LLM 新构建的因子 IC 从-0.069 提升到-0.078,提升了 13%,效果显著。
本文深入探讨了模型上下文协议(MCP)的定义、目标、设计原理及其在金融领域的应用。MCP 作为一种新 兴技术,通过提供标准化的协议,成功地将大型语言模型(LLMs)与外部数据源和工具无缝连接,显著提升了 AI 应用的功能性和灵活性。Fin MCP Server 是我们开发的一个金融领域 MCP Server,不仅支持多种数据提取和 分析工具,还集成了量化研究中的关键功能,如策略回测和因子优化。通过与 AI 代码编辑工具(如 Curs or 和 Trae)结合,Fin MCP Server 能够实现从数据获取到策略执行的自动化,也能够在一些 AI 助手,如 Cherry Studio 或者手机 APP 中进行调用,极大地提高了研究效率。其支持本地和云端两种部署方式,使得用户可以根据自身 需求灵活选择。
(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)