算法可信度和安全性有待提升大模型金融应用在准确性、安全性、稳定性和金融科技伦理等方面面临挑战。
(一)金融应用规范与指南亟需完善金融业作为强监管行业,在政策方面一直遵循着高标准和严要求。我国已相继发布《生成式人工智能服务管理暂行办法》《网络安全标准实践指南——生成式人工智能服务内容标识方法》《生成式人工智能服务 安全基本要求》(征求意见稿)等文件,对大模型在通用领域的应用进行了合理的约束和引导,但是针对大模型在金融领域的应用尚且缺少可实施落地的标准规范和指南,对应用过程中的权责界定尚不明晰,缺少对生成内容的问罚机制及大模型广泛应用后可能存在的无序商业行为的监管机制。此外,针对大模型训练和推理的 AI 算力基础设施、行业语料库标准化建设也较为欠缺。
(二)金融应用场景缺少范式大模型选型、架构调整设计、技术验证等环节过程复杂,金融机构缺乏大模型技术融合场景落地的方法论,对大模型的能力边界认知不足,尚未明确大模型适合哪些业务场景、是否有必要替换传统的 AI 设备、何时适合落地,尚未健全大模型应用创新风控管理机制,尚未有典型的落地案例可以向行业规模化推广。大模型支撑多个场景或服务的行业应用,其测评指标非常复杂,测试数据集设计构建与更新维护难度大、成本高,尚且缺少一个覆盖面广、公允度高、满足不同场景和任务特征的大模型金融应用及其风险治理的评估方法或指标体系,致使金融机构进行大模型选型及评估存在较大困难,阻碍了大模型金融场景应用进程。大模型需要提示工程相关的内置模板,与原有的机器学习、深度学习等模型工作方式有很大差别,也增加了相关人员的工作难度。此外,大模型金融应用需要与现有系统和业务流程进行集成,需要跨组织、跨部门、跨团队协作,组织能力面临挑战。
(三)高质量金融训练数据欠缺数据是大模型训练的基础,为了切实解决金融业务问题,需要大量高质量、多领域的金融数据基于业务属性对大模型进行增量训练。金融领域知识存储形式繁多,包括影像件、PDF、Excel等多种格式,需要通过分类、清洗、问答数据集梳理等大量前期处理及后期更新维护工作,针对各种业务难点、要点问题的解答还需要搜集大量专家经验,以保持大模型的准确性和有效性,而这会耗费大量人力物力。同时,大模型训练迭代需要一定时间,致使大模型对时事的了解有限。金融数据流通仍在探索阶段,而单一金融机构掌握的数据资源较为有限,一定程度上影响了大模型金融应用效果。金融数据敏感性高,在数据分级分类管理、数据脱敏清洗、防止数据偏见和滥用等环节也存在难题。
(四)训练算力支撑普遍不足大模型训练和推理需要足够的算力支撑,在高端GPU芯片断供的背景下,金融机构对中高端 AI 算力的需求存在较大缺口。由于金融数据敏感度高,金融机构普遍选择私有化部署大模型,而构建、训练、优化大模型需要高性能的计算资源和大量的存储资源,硬件设备的采购和维护需要高昂的资金投入,给金融机构带来较大的成本压力。大模型的训练与推理对AI 芯片的要求有所不同,当前我国 AI 芯片能较好地支撑推理,而在训练上仍与国际领先水平有明显差距,存在计算能力不足、芯片制程工艺有限、算力调度不灵活、产业生态不完备、与大模型兼容适配性不够等问题,且在金融业应用普遍缺乏验证。我国AI 芯片适配涉及 CPU、操作系统、云平台、AI 框架、加速框架和算法模型等多个层次,适配工作复杂且难度大,牵一发而动全身。
(五)算法可信度和安全性有待提升大模型金融应用在准确性、安全性、稳定性和金融科技伦理等方面面临挑战。准确性方面,大模型存在文本及数据幻觉问题,其训练数据难以溯源、生成内容不可信、计算过程不可解释、推理逻辑不专业,难以直接应用于数据准确性要求高、业务流程复杂度高的金融场景。安全性方面,金融场景涉及大量敏感信息,大模型在输入输出过程中可能造成数据泄露,从而引发重大的安全事件和恶劣影响,同时特殊的提示词构造、逆向工程等手段可能被非法用于攻击大模型,绕过内容过滤模块,使攻击者获取超出权限范围的结果,甚至窃取大模型的所有权和使用权,肆意修改模型代码或参数,使其生成不准确、不公平、不合规的恶意结果。稳定性方面,大模型算法框架不够完善,开发环境不够友好,适配的框架比较少,且当前大模型算法主要基于国外的机器学习平台和技术,在我国设备的操作系统、编程环境、算法库等应用时可能出现各种意想不到的错误和异常,从而影响大模型运行效果和稳定性。此外,大模型可能引发算法歧视、人权、道德、造假等科技伦理风险,影响金融服务的健康发展。
(一)加强金融应用的指导与管理坚持发展和安全并重、促进创新和治理相结合的原则,制定一套完备的适用于金融领域的大模型管理体系,分类分级地制定政策指南,引导大模型在金融业规范应用,持续推动业务创新发展。对大模型的训练数据、算法设计、生成内容、风险治理等方面进行管理,制定从准入阶段的评估和备案,到对外提供金融服务,再到事后反馈的全过程管理机制,确保大模型在金融领域应用的合规性和安全性。明确金融业涉及大模型使用的各类主体的责任和义务,并制定合理的问责机制。积极参与大模型国际标准化工作,推动金融行业的 AI 算力基础设施、行业语料库标准化建设,制定合理的标注规则,加强不同大模型产品之间的互通性和兼容性。
(二)有序推动金融应用场景落地金融机构征集并统筹大模型相关需求,梳理现有需求场景及方案,形成跟踪台账,探索大模型与金融业务融合所需的前提条件和能力边界,选取业务价值高、实施完备度成熟、风险可控的业务场景优先落地应用。多技术路线并举,技术点同步验证,探索应用监管沙箱等治理方式,加快大模型的试点应用步伐,打造大模型金融应用最佳案例,并进行规模化推广复用。基于分级分类分域的治理思路,形成多元敏捷协同的治理体系,推动实现大模型金融应用负责任、可监督、可追溯、可信赖。创新大模型金融应用评估工作机制和理念,加快普适性好、具有底线约束的标准研制和通用测评体系建设,将自动评估和人工评估相结合,提高金融业大模型应用评估工作的质量。第三方评估机构积极协助金融机构,搭建一套适应其业务的模型评价体系,并建立评测指标与评测数据集反馈和更新机制,促进大模型在金融场景应用中的迭代优化。
(三)积极构建高质量金融数据集金融机构梳理场景应用数据需求,建立并完善大模型应用数据使用机制,探索一套面向大模型的数据“采集、清洗、管理、应用”方法和体系,提升数据集的规模、质量和多样性,保障模型微调与投入生产后的数据连贯性、稳定性。做好敏感数据拦截的审计检查工作,根据场景特点和风险等级进行数据分级分类。研究建立针对数据偏见、技术滥用、数据滥用等问题的风险管控机制,做好大模型私域管理和权限隔离,保证数据在可控范围内流动,并通过区块链存证技术强化管控,确保各个环节的数据可追查、可溯源且不可篡改。金融业积极推动大模型训练和行业标准测评公共语料库建设,助力行业级金融大模型建设,提升大模型金融应用水平。
(四)产用协同共筑 AI 算力基础设施产业机构加大我国 AI 芯片的研发与推广应用,保障大模型推理和训练的算力资源供给,提升硬件安全可控水平。加强产学研用协同创新,共同推动大模型软硬件生态建设,标准化驱动抽象及依赖,提升框架通用性,合力推进GPU、DCU、NPU 算力集群和智能计算中心等算力基础设施建设,助力大模型全栈兼容性适配,快速推动大模型私有化部署。通过提供算力资源租赁、移动算力资源车等方式为金融机构提供算力解决方案。金融机构结合自身需求,梳理共性硬件资源需求,完善大模型算力中心规划,基于国产和非国产算力建设多源异构算力资源池,建立健全算力资源分配流程、资源使用跟踪与资源回收机制,对国内外芯片进行统一纳管、虚拟化和调度,充分、合理利用算力资源,保障算力平台供给稳定性,提升大模型训练推理效率。根据算力建设情况,形成大模型算力适配的模型微调部署方案,在保证模型效果的前提下,通过模型压缩、小样本训练等方式进一步降低应用成本。同时,推动中高端算力集群配套的网络、存储、冷却等方面的改造工作。
(五)完善算法优化与风险管控体系产业机构与金融机构沟通切实需求,提高大模型算法的透明度、可解释性和可预测性,帮助金融机构更好地理解算法运作方式和决策依据。建立用户参与和反馈机制,纳入模型算法改进和优化等环节之中,提升用户体验和技术的可靠性。积极推进大模型算法、模型和工具等全流程配套体系建设,提供全套的大模型金融应用解决方案,降低大模型金融应用落地的技术门槛和风险。金融机构做好适合自身场景的基础大模型选型,研究建立针对大模型生成内容、算法安全的风险管控机制,配备专业人员实时监控大模型运行情况。对于涉及敏感数据、直接对客或对输出结果准确性高的场景谨慎使用大模型技术,建立“AI 审核+人工审核”两道关卡,保障大模型输入输出数据的安全可控。加强金融科技伦理治理,负责任、有道德地开展大模型技术创新应用,通过开展专业培训与论坛交流等方式,增强相关人员的安全风险防范意识。在确保用户个人信息安全和隐私不受侵犯的前提下,金融机构与产业机构加强联合研究与攻关,提高大模型算法自研水平,通过共享大模型前沿研究成果、金融业训练与评测数据集等方式,不断提升金融业大模型算法安全性、合规性、专业性和兼容性。