记者 沈怡然 在平衡隐私安全监管和数据产业发展的背景之下,被给予厚望的隐私计算技术也出现了某些局限和痛点。12月15日,瑞莱智慧RealAI首席架构师徐世真对记者表示,如今,很多企业意识到了隐私计算发展中的一些限制,需求开始变得清晰和专一,不再追求大而全的平台,往往是对于特定场景大数据量下的具体业务。
作为一个正在兴起的赛道,隐私计算致力于保护数据流通安全性,在2020年经历了技术普及和市场教育,又受2021年《数据安全法》和《个人信息保护法》两部法律的推动。目前隐私计算正进入大规模的概念验证和试点部署阶段,但距离规模化应用还有一段距离,仍面临互通互联、计算性能、安全性和可用性等核心难点。
互通性问题
徐世真表示,生态壁垒是重要问题。隐私计算号称可以解决数据孤岛,但实际上,它反而会诞生技术孤岛问题。目前各家隐私计算的技术互不相通,也无法互相连接。但业内实现的程度大多是停留在软件层的集成,应用中仍涉及大量人工改写的工作。
徐世真表示,不仅仅在技术实现层面,这种互不相通也源自一些主观因素。各家企业考虑到安全性和知识产权的问题,除了在一些开源组件上,其它方面不愿意公开自己的底层协议。这也带来了协议不透明的问题,导致安全性难以审计,蕴含明显的安全漏洞。
徐世真表示,某种程度上,这种难以兼容互通的情况也曾在AI产业的发展中存在过。借鉴AI发展模式,一个解决的思路是走底层编译器路线,实现数据流图层的兼容互通,支持一键改写和适配上层多种算法,同时一定程度上将协议公开,使安全性可追溯、可验证。
目前业界也出现了一些数据交易机构,但是企业的交易意愿并不强烈。徐世真表示,隐私计算解决了数据“能”拿出来的问题,但没有解决数据价值闭环的问题。深度结合场景,使业务方从隐私计算中获益,才能把隐私计算从成本项变成营收项,保证企业有可持续的开放意愿度。
合规争议
另一个争议在于,企业如何使用隐私计算才算合规。
隐私计算被认为能缓解数据应用和安全之间的矛盾,帮助企业解决一些数据合规性的问题。中国信息通信云计算与大数据研究所副所长魏凯表示,但是,隐私计算的使用和合规不能划等号,不能武断地认为使用隐私计算就百分之百合规。
魏凯表示,无论是针对隐私计算技术还是人工智能技术的使用,法律都不会从合法性上给出确切的定义,法规只关注是否侵犯相关的利益,关注隐私计算在实践中能否很好地落实法律最小化原则、是否能显著降低泄漏风险。
所以,企业使用隐私计算技术进行数据聚合时,是无法完全规避法律风险的,比如基于联邦学习的交换数据里面含有梯度,梯度仍然可以揭示出一些个人信息的特征,具体还要看使用场景和业务逻辑,针对具体情况进行法律风险的规避。
魏凯称,隐私计算的使用不能作为逃避法律的挡箭牌,技术只是某种程度上降低了产生后果的风险,归根到底其实还是要看它的商业模式是否合规,数据来源是否合法,数据的授权和使用目的是否正当。
徐世真表示,隐私计算不同技术路线各有合规痛点。比如性能良好的多方安全计算路线需引入计算辅助方,面临可信挑战;传统联邦学习的安全性证明不严谨;硬件TEE方案有较好的性能和算法生态,但数据集中式处理,依赖厂商硬件的可信赖程度,所以需要结合具体场景需求采用合适的技术路线。
功能上看,隐私计算解决的是数据流通安全性的问题,能够避免流通过程中的资产损失却无法解决端到端的安全问题,无法保障全链路的安全。 隐私计算仅仅是企业合规建设的一环,要在法律法规的框架下进行。徐世真建议,技术厂商可与律师事务所等机构开展合作,针对人工智能、数据交换等新场景下监管机构的合规要求,对内健全技术合规体系建设,对外面向企业输出应用合规咨询服务。
京公网安备 11010802028547号