机器学习容易,遗忘却很难!如何让机器“选择性失忆”,保护我们的个人隐私?

胡慕子

1

目前,机器学习被视作最具智能特征的研究领域,但科学家提出了新的问题:机器会学习,但它会遗忘吗?

机器学习研究者们已经开始探索在AI中诱发“选择性失忆”的方法,其目标是在不影响模型性能的前提下,从机器学习中删除特定人员或点的敏感数据。

如果未来能够实现,那么这一概念将帮助人们更好地控制数据。

机器学习的“遗忘”,对于有需求的用户,也就是那些对他们在网上分享的内容感到后悔的人来说,其实很直观。

但从技术层面来讲,消除特定数据点影响的传统方法,是“从零开始”重建系统,这是一项代价可能相当高昂的工作,令企业几乎难以承受。

具体来说,某些地区的用户如果他们对披露的内容改变了主意,其实是有权要求公司删除他们的数据的。但彻底抹除这件事很难实现,因为一旦经过训练,机器学习系统就不会轻易改变,甚至就连训练者们自己,也不清楚系统是如何掌握这些能力的,因为他们并不能完全理解自己调试或训练出的算法。

人们对人工智能系统侵犯个人隐私的担忧日益严重。如何让AI学会“选择性失忆”,从而可以在无需“从零开始”对系统进行再培训的情况下删除敏感数据,成为时下研究的热点问题。

宾夕法尼亚大学机器学习教授亚伦·罗斯表示,他们目前进行的研究就是希望能找到一些“中间地带”。或许在不久的将来,有望找出一条既可以控制数据也可以保护由数据产生的价值的发展道路。

前瞻经济学人APP资讯组

可行性研究报告

广告、内容合作请点这里:寻求合作

咨询·服务

相关阅读

精彩推荐