英特尔开源HE-Transformer,让AI模型能够处理加密隐私数据

所有的数据科学家都会告诉你:数据集是人工智能(AI)的生命线。但对于需要处理大量个人身份信息的行业(例如医疗健康行业)来说,如何兼顾AI的大数据训练与与个人隐私保护是个艰巨的挑战。但幸运的是,业界在AI模型培训中使用匿名加密数据的方法方面取得了令人鼓舞的进展。

今天在加拿大蒙特利尔召开的NeurIPS 2018会议上,英特尔宣布推出开源式HE-Transformer,这是一种允许AI系统对敏感数据进行操作的工具。它是nGraph——英特尔神经网络编译器的后端,基于简单加密算法库(SEAL),该加密库本周已经由微软研究院开源。

英特尔和微软两家公司将HE-Transformer定义为“隐私保护”机器学习的一个典范。

“他允许对加密数据进行计算。当应用于机器学习时,此功能允许数据所有者获得有价值的分析结论,同时又不会暴露基础数据; 而且,该工具可以使AI模型所有者通过以加密形式部署来保护他们的模型,“英特尔研究科学家Fabian Boemer和英特尔研究高级主管Casimir Wierzynski在一篇博客文章中写道。

HE-Transformer中的“HE”是同态加密的缩写,是一种加密方式,可以基于密文(被算法加密的明文或文件内容)上进行计算 ,生成一个加密结果,在解密时,与未加密文本上执行的操作结果完全匹配。

HE是一项相对较新的技术–IBM研究员Craig Gentry在2009年开发了第一个完整的HE方案。正如Boemer和Wierzynski所说,设计使用HE的AI模型不仅需要机器学习技术,还需要加密和软件工程方面的专业知识。

HE-Transformer提供了一个可应用于开源框架(如Google的TensorFlow,Facebook的PyTorch和MXNet)上的神经网络的抽象层,来帮助开发过程,人们无需再将模型手动集成到HE加密库中。

HE-Transformer结合了Cheon-Kim-Kim-Song(CKKS)加密方案以及加法和乘法运算,例如加法、广播、常数、卷积、乘、否定、填充、整形、切片和减法。此外,它还支持HE特定技术,如明文值旁路,SIMD打包,OpenMP并行化和明文操作。

基于上述特性和其它优化,Intel声称HE-Transformer在cryptonets上的性能表现一流。  -后者使用在TensorFlow中训练的浮点模型。

微软研究院首席研究员兼密码学研究经理克里斯汀·劳特表示:“我们很高兴能与英特尔合作,为更多的数据科学家和隐私保护机器学习系统开发人员带来同态加密技术。”

目前,HE-Transformer直接与TensorFlow的nGraph编译器和运行时集成,对PyTorch的支持也即将推出。对于那些能够将神经网络导出到ONXX的深度学习框架,例如PyTorch,CNTK和MXNet,可以通过将模型导入ONXX中的nGraph并以序列化格式导出它们来使用这些框架。

Boemer和Wierzynski表示,未来版本的HE-Transformer将支持更多种类的神经网络模型。

他们写道:“作为最新的进展成果,HE已经成为一种有价值的深度学习工具。” “研究人员如今可以利用TensorFlow快速开发新的面向HE的深度学习拓扑。”

第一时间获取面向IT决策者的独家深度资讯,敬请关注IT经理网微信号:ctociocom

   

除非注明,本站文章均为原创或编译,未经许可严禁转载。

相关文章:


关于作者