谷歌践行负责任AI开发原则 使用“差别隐私”保护数据

IP属地:香港
80 0
脆脆鲨 2023-9-22 02:15:52 | 显示全部楼层 |阅读模式
  【CNMO新闻】谷歌为旗下机器学习架构TensorFlow发布了一种可以让开发者通过几行额外代码就能提升AI模型隐私性的新模组。
  TensorFlow是目前最受欢迎的机器学习程序搭建工具,并被全世界的开发者用于开发文本、音频和影像识别算法这样的程序。在本次发布的TensorFlow Privacy模组的帮助下,这些开发者将能够用一种被称为“差别隐私”的统计方法来更好地保护用户数据隐私。

保护数据隐私

  这一工具的诞生践行了谷歌“负责任AI开发”的原则,谷歌产品经理Carey Radebaugh表示:“如果我们不把差别隐私这样的特性添加到TensorFlow中的话,谷歌内外的团队都无法轻松地使用它,因此对我们来说,为TensorFlow增添这一模组并将其开源是非常重要的。”
  差别隐私的运作机制非常复杂,它可以防止由用户数据训练而成的AI模型泄露个人信息,这是一种AI模型常用的保护个人信息的途径,苹果在iOS 10包含的AI服务中采用了该方法,而谷歌也将其应用于一系列AI特性中,例如Gmail的智能回复功能。
  当然,差别隐私也有缺点,谷歌科学家Erlingsson表示:“差别隐私会隐藏异常值,因此它有时也会将一些相关数据删除,特别是那些涉及到语言的复杂数据集,差别隐私的特性决定了AI系统不可能识别那些只在数据集里出现一次的信息,因此开发者可能需要考虑是否要增加某一特定类型数据的收集量,或者这些数据集中独一无二的信息有多大的相关性和可用性。”
  谷歌希望通过推出TensorFlow Privacy模组让全世界更多的开发者开始使用差别隐私,谷歌同时也希望能有更多的业内精英加入进来开发更多开源工具。Erlingsson表示:“仅仅通过添加几行代码以及调整一些参数就能向AI模型添加差别隐私功能是一项巨大进步,我们对此感到自豪。”
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Copyright © 2001-2025 Discuz Team. Powered by Discuz! X3.5 |网站地图