隐私计算技术存痛点:生态壁垒、法律合规问题待解决

沈怡然2021-12-15 19:23

记者 沈怡然 在平衡隐私安全监管和数据产业发展的背景之下,被给予厚望的隐私计算技术也出现了某些局限和痛点。12月15日,瑞莱智慧RealAI首席架构师徐世真对记者表示,如今,很多企业意识到了隐私计算发展中的一些限制,需求开始变得清晰和专一,不再追求大而全的平台,往往是对于特定场景大数据量下的具体业务。

作为一个正在兴起的赛道,隐私计算致力于保护数据流通安全性,在2020年经历了技术普及和市场教育,又受2021年《数据安全法》和《个人信息保护法》两部法律的推动。目前隐私计算正进入大规模的概念验证和试点部署阶段,但距离规模化应用还有一段距离,仍面临互通互联、计算性能、安全性和可用性等核心难点。

互通性问题

徐世真表示,生态壁垒是重要问题。隐私计算号称可以解决数据孤岛,但实际上,它反而会诞生技术孤岛问题。目前各家隐私计算的技术互不相通,也无法互相连接。但业内实现的程度大多是停留在软件层的集成,应用中仍涉及大量人工改写的工作。

徐世真表示,不仅仅在技术实现层面,这种互不相通也源自一些主观因素。各家企业考虑到安全性和知识产权的问题,除了在一些开源组件上,其它方面不愿意公开自己的底层协议。这也带来了协议不透明的问题,导致安全性难以审计,蕴含明显的安全漏洞。

徐世真表示,某种程度上,这种难以兼容互通的情况也曾在AI产业的发展中存在过。借鉴AI发展模式,一个解决的思路是走底层编译器路线,实现数据流图层的兼容互通,支持一键改写和适配上层多种算法,同时一定程度上将协议公开,使安全性可追溯、可验证。

目前业界也出现了一些数据交易机构,但是企业的交易意愿并不强烈。徐世真表示,隐私计算解决了数据“能”拿出来的问题,但没有解决数据价值闭环的问题。深度结合场景,使业务方从隐私计算中获益,才能把隐私计算从成本项变成营收项,保证企业有可持续的开放意愿度。

合规争议

另一个争议在于,企业如何使用隐私计算才算合规。

隐私计算被认为能缓解数据应用和安全之间的矛盾,帮助企业解决一些数据合规性的问题。中国信息通信云计算与大数据研究所副所长魏凯表示,但是,隐私计算的使用和合规不能划等号,不能武断地认为使用隐私计算就百分之百合规。

魏凯表示,无论是针对隐私计算技术还是人工智能技术的使用,法律都不会从合法性上给出确切的定义,法规只关注是否侵犯相关的利益,关注隐私计算在实践中能否很好地落实法律最小化原则、是否能显著降低泄漏风险。

所以,企业使用隐私计算技术进行数据聚合时,是无法完全规避法律风险的,比如基于联邦学习的交换数据里面含有梯度,梯度仍然可以揭示出一些个人信息的特征,具体还要看使用场景和业务逻辑,针对具体情况进行法律风险的规避。

魏凯称,隐私计算的使用不能作为逃避法律的挡箭牌,技术只是某种程度上降低了产生后果的风险,归根到底其实还是要看它的商业模式是否合规,数据来源是否合法,数据的授权和使用目的是否正当。

徐世真表示,隐私计算不同技术路线各有合规痛点。比如性能良好的多方安全计算路线需引入计算辅助方,面临可信挑战;传统联邦学习的安全性证明不严谨;硬件TEE方案有较好的性能和算法生态,但数据集中式处理,依赖厂商硬件的可信赖程度,所以需要结合具体场景需求采用合适的技术路线。

功能上看,隐私计算解决的是数据流通安全性的问题,能够避免流通过程中的资产损失却无法解决端到端的安全问题,无法保障全链路的安全。 隐私计算仅仅是企业合规建设的一环,要在法律法规的框架下进行。徐世真建议,技术厂商可与律师事务所等机构开展合作,针对人工智能、数据交换等新场景下监管机构的合规要求,对内健全技术合规体系建设,对外面向企业输出应用合规咨询服务。

版权声明:以上内容为《经济观察报》社原创作品,版权归《经济观察报》社所有。未经《经济观察报》社授权,严禁转载或镜像,否则将依法追究相关行为主体的法律责任。版权合作请致电:【010-60910566-1260】。
大科创新闻部记者
关注硬科技领域,包括机器人及人工智能、无人机、虚拟现实(VR/AR)、智能穿戴,以及新材料领域。擅长企业深度报道及上市公司分析报道。发现前沿技术、发展趋势投资价值。
Baidu
map