金融机构对隐私计算开源框架技术发展展望有哪些?

最佳答案 匿名用户编辑于2023/02/22 09:29

我来简单介绍一下金融机构对隐私计算开源框架技术发展展望。

1.可信联邦学习将得到广泛应用

传统的联邦学习在发展过程中正面临包括安全、效率,以及 模型的可监管、可解释性问题等多方面的挑战。随着联邦学习技 术的日益普及和大规模应用,联邦学习安全、性能、效率三者的 平衡变得至关重要。为了降低参与方加入联邦学习的成本与顾虑, 鼓励不同行业内用户参与联邦学习,更好地促进数据流通,需要 对传统的联邦学习技术和概念不断升级和完善,这也促使了传统 的联邦学习迈向新的可信联邦学习。

可信联邦学习是一种增强型的联邦学习,它除了保证原始数 据的隐私安全和模型的可证安全,还保证学习过程的高效率和模 型的可用性,模型决策机制的可解释性、及模型的可溯源性和审 计监管性。在此范式中,隐私保护、模型性能、算法效率是核心 的三角基石,并且与模型的决策可解释性和可监管性两大支柱一 道,共同构成了更加安全可信的联邦学习。数据安全可证明、模 型性能可使用、机器学习效率可控、决策可解释、模型可监管和 普惠是可信联邦学习的核心特征。因此,可信联邦学习势必将得 到更广泛的发展和应用。

2.多方异构平台互联互通势在必行

异构平台之间无法协作问题,导致隐私计算运维成本的提高 和数据安全风险的提升,制约了隐私计算技术应用的效率。解决 技术差异造成的不同平台间的通信壁垒,实现互联互通,已经成 为业内共识。

针对上述问题,为实现隐私计算技术大规模商业落地,首要 是建立一套隐私计算框架的标准,在此基础上对身份认证、数据 授权、任务同步、资源访问等关键问题深入探索。通过不断实践 总结,明确数据传输格式,梳理交互流程,逐步形成一套安全可 靠的通信协议,并提供规范示例。

3.支持异构基础算力设施的能力持续发展

为了灵活适应不同企业的软硬件要求,隐私计算开源框架有 必要适配多种不同的计算引擎与通信模式,从而方便企业根据现 有情况以及未来规划灵活选择。FATE 框架在计算引擎、网络通信 等多个基础设施方面做了大量的抽象与统一工作,对于有投入 GPU、FPGA 等硬件来加速联邦学习系统的企业,FATE 也将在基础 架构的层次上进行深度支持优化。在未来将在现有的成果基础上, 开源框架应着力优化统一的计算、通信抽象和支持 CPU/GPU/FPGA 灵活适配扩展两个方面。

统一的计算通信接口不仅使得企业可以灵活配置与使用开 源框架实现业务需求,而且在未来可能催生提供各种软硬件加速 实现的商业服务,从而使得服务提供方与服务使用方都从中获益。

4.云原生管理有必要进一步强化

FATE 框架目前拥有 KubeFATE,FedLCM 两个开源项目,已经 基本支持联邦以及框架层面的云原生管理,这为开源框架提供了 重要参考。在后续开发中,开源框架应考虑以下几个方面能力的 建设: 1) 异构计算的支持。增加对异构计算、加速的支持,使得某些算法组件可按需选择使用不同加速引擎,加速联邦学习等隐 私计算过程,提高场景落地效率。 2) 更友好的配置管理。开源框架可以结合具体硬件、异构 系统配置进一步优化这些分布式系统的部署配置,使用户可以统 一调管联邦学习资源。 3) 互联互通的支持。开源框架应考虑互联互通需求,实现 统一管理、配置多种联邦学习隐私计算框架。

5.与大数据、人工智能等技术生态结合将更加紧密

隐私计算尤其其中的联邦学习技术是在站在大数据处理技 术和 AI 人工智能技术的巨人肩膀上发展起来的,并充分结合这 些成熟生态已有技术进行了演进。FATE 自 v1.5.0 版本开始,重 构了基础架构,构建了统一计算、存储、通信抽象层,适配不同 的计算引擎、存储引擎、通信引擎、以满足不同场景适配不同引 擎的需求。未来 FATE 还会更多接入大数据生态产品,和这些产 品互通,进一步提升 FATE 在大规模数据处理和规范化数据治理 能力。

以 Tensorflow、Pytorch 为代表 AI 生态已逐渐成熟,并成 功应用于自然语言、视觉搜索、广告推荐、智能风控等众多领域, 在这些领域技术升级重塑上发生了重要的作用。未来隐私计算开 源框架,应进一步拓展对自然语言、视觉、推荐等领域联邦化支 持,充分拥抱这些领域已有成熟成果。

FATE 技术框架与大数据生态,AI 生态的充分结合,极大的 展现生态优势,充分说明了隐私计算开源框架与大数据、人工智 能等技术生态融合的重要性。