开源服务与开放生态成为主流趋势。
当前,大模型技术加速发展,美国、中国、日本、欧盟等全球主要地区的科技公 司正加大大模型技术的创新及应用。美国在生成式AI方面起步较早,OpenAI、 Google DeepMind、Meta等科技公司在生成式AI领域取得了里程碑式的进展。 在中国,百度、阿里、华为、腾讯、京东、科大讯飞、字节跳动等科技公司也纷 纷发布了基座大模型,且加速推进其在各行各业的落地。而欧盟的科技公司也加 速应用生成式AI,且其更倾向于在细分领域(如医疗、金融等)应用生成式AI, 而不是开发通用的大规模生成模型。
例如,英国的DeepMind是生成式AI领域的 重要力量,其生成模型在文本生成、游戏AI等方面表现突出。日本在生成式AI的 技术开发上相对滞后,其在机器人和自动化领域具备全球领先的技术实力,但在 自然语言生成和通用图像生成等方面,尚未推出具备国际竞争力的大规模模型。 不过,日本的一些企业和科研机构也在逐渐跟进,根据日本政府发表的《信息通 信白皮书》表示,未来的增长潜力不容忽视。71.1%的受访者表示,在合适的情 况下,愿意尝试使用生成式AI。

大模型作为带动产业/组织服务效率及范式变革的重要技术,已经具备较高的识 别准确率和较强的场景泛化性,在多模态的任务下也有明显的突破,全球诸多企 业已在金融、电商、能源等行业“试水”。
据IDC全球调研显示,全球已经有18%的企业在生产环境中引入了几个GenAl增强的应用,并专注于扩展,中国的这一比例仅为3%,但中国开始投资或做POC测试的企业达95%。
在未来GenAI投资分配上,中国和全球企业几乎都会平均分配在三类应用场景上(大约各1/3)。
目前,基础大模型建设已经较为完整,诸多云服务商、AI技术服务商、数据服务商等均推出其基座大模型,且各具特色,未来将会进入大模型应用跑马圈地阶段,行业应用场景数量也将爆炸性地多元化增长,且会逐渐从辅助运营类的业务场景向决策管理场景深入。
大模型技术创新与发展趋势
随着大模型技术的发展,大模型的参数规模也将显著增长,如OpenAI的GPT系 列模型、Google的PaLM,以及Meta的LLaMA。这些模型将具备更强的推理、生 成和上下文理解能力。未来,这种趋势也将继续,其不仅能极大地提高大模型在 具体场景中的应用性能,也能提高大模型在具体应用场景中的体验。 多模态模型也将在金融行业普遍应用。多模态模型能够处理文本、图像、音频、 视频等多种类型的输入,并且通过多模态融合与跨模态理解,可以更有效地用于 各类复杂问题的求解,从而极大地丰富其应用场景。例如,OpenAI的CLIP(将 图像和文本映射到相同的向量空间)、DALL-E(通过文本生成图像)、Meta的 ImageBind(支持六种模态,包括图像、音频、文本等)等。这些模型能够在图 像识别、文本生成、音频理解等多方面表现出色。这种多模态之间的融合也将使 得AI大模型能更深刻地捕捉复杂场景背景、细节和情感,使其更快的感知和适应 场景,并能应用于更加复杂的金融场景。
AI智能体将迸发更大的应用潜力。AI Agent 是一种软件程序或计算实体,它能够 通过传感器或数据接口收集环境信息,运用算法处理数据,制定决策或规划行动 方案,并最终执行这些决策以影响环境,实现预定目标。AI智能体将成为下一代 平台,从Copilot副驾走向主驾,智能体的加速进化,有望完成 “感知-认知-推理 -决策-组织/行动”的闭环,其在数据处理、智能决策与自然交互等方面的卓越能 力,预示着它将在客户服务、业务流程优化、市场预测等多个关键领域发挥核心 作用,为金融机构带来前所未有的价值创造。为了实现在复杂场景中的业务决 策,金融机构也可以引入Agent系统,以处理那些单靠提示词难以实现的复杂业 务场景,进而达到高效的自动化决策。尤其是在智能客服、智能质检/陪练等产 品创新,以及风险评估、个性化金融咨询以及智能评估场景,为用户提供更加精 准、高效的服务。
开源服务与开放生态成为主流趋势。国内外大模型开放平台、开源模型/工具, 能有效加速大模型技术演进,金融机构可以在开源基础上进行二次开发,满足其 个性化需求,赋予中小金融机构使用前沿AI技术的能力,从而加速大模型在不同 金融场景中的广泛应用。IDC认为,未来大模型在金融领域的生态化发展,例如 通过构建大模型生态资源共享平台,向金融机构提供大模型应用所需的全套资 源,包含算力等基础设施资源、通用大模型及各类专业领域小模型等多样化的模 型资源、金融业务的各类场景应用资源,以及连接金融产品和服务终端用户,是 金融机构大规模应用生成式AI的主要路径之一。 软硬件、工具之间协同也能优化降低大模型开发和应用成本。金融机构可以充分 利用硬件加速技术、优化软件架构和构建灵活的工具链,有效提升计算效率,减 少资源消耗。NVIDIA、Google、Apple等公司都在开发专用AI加速芯片,以提高 大模型训练和推理的效率。同时,通过分布式训练、跨平台部署以及端到端工具 链,使得模型能够更加灵活地适配不同的硬件资源,并可以随业务需求灵活扩展 或缩减规模。例如,NVIDIA推出的CUDA和TensorRT配合GPU硬件,不仅加速 了训练过程,还在推理阶段进一步提升了运行效率。或通过硬件加速器(如 TPU)和软件框架支持的优化算法,模型可以在推理中以较低的计算量实现较高 的性能,从而推动大模型高效训练与部署。
行业应用场景的拓展趋势
当前,阻碍大模型在金融行业应用的主要因素之一是高昂的算力成本。在训练大 模型或推理大模型过程中,金融机构需要消耗较大的算力。通过使用分布式计 算、云计算资源及高效的硬件设施(如GPU/TPU),将大模型的训练任务分配 到多个GPU或TPU上,以并行处理的方式加快训练速度,可以降低模型训练的时 间和成本。同时,通过优化模型架构,精简网络结构、减少层数或神经元数量, 降低不必要的复杂性,有助于节省资源。通过构建模型管理平台,可以帮助金融 机构以模块化设计方式复用不同任务间的共享组件;通过构建可组合、可重用的 模块,不仅可以简化训练过程,还能够方便地迁移模型到其他领域或任务场景 中,进一步扩展应用场景、提升服务效能。
未来,随着大模型在预训练及推理过程中算力成本的降低以及模型性能的提升、 模型架构的优化,其在管理和业务决策类场景(例如信贷审批、理财投顾等决策 类场景)中也将发挥出更大的应用价值,将作为业务决策的辅助决策者,与人类 共同完成复杂的分析任务。通过模型提供的数据洞察和决策建议,决策者可以更 加客观、数据驱动地做出判断,提高整体决策水平。 此外,通过大小模型协同也能驱动金融机构在更加多样复杂的场景中的应用。金 融机构应加强研究和推进大、小模型协同、生成式技术与传统人工智能技术协 同,大模型与小模型协同发展;大模型在自然语言处理、计算机视觉等领域展现 出强大的能力,但同时面临着高昂的计算资源需求;而小模型则通过精准的数据 集和优化算法,能在特定任务上展现卓越性能,甚至超越某些大模型。尤其是在 金融行业,大模型与小模型的结合也将为这些行业提供更全面、更高效的解决方 案。大模型可以完成高维度、非结构化数据的初步处理,而小模型则在关键节点 进行细化分析和快速决策,从而实现协同工作。例如金融机构在反欺诈过程中, 既需要识别复杂的欺诈模式,也需要在交易发生时实时做出快速决策。由于大量 数据的复杂性,仅依靠大模型会带来过高的计算成本和延迟。此时,如果通过 大、小模型之间的协同,大模型对交易数据进行模式分析和风险评估,识别出潜 在的欺诈特征;而小模型则在交易时进行快速筛查,验证是否符合风险特征库中 的条件,从而进行实时预警,则可进一步实现风险控制和即时响应的平衡。