外媒爆料微软Word新功能:AI让你的文章变得更“政治正确”
根据最近的一份报告,微软将很快开始使用人工智能,使他们的Word程序不仅语法正确,而且在政治上也正确。
据Fast Company报道,科技公司微软很快将利用人工智能完成一项令人惊讶的任务——强制执行政治正确性。
据报道,该公司计划很快试验其Word软件的一个版本,该版本将在语法检查系统和本质上的“政治正确性检查”中使用人工智能,尽管该公司并没有在这些术语中提到该功能。
这个新项目被称为“Ideas in Word”,指的是一些人工智能驱动的功能,帮助用户更好地格式化和编写文档。
这款新软件将执行一系列任务,比如破译一些缩略词,或估计阅读一份书面文件需要多长时间。
在政治正确方面,Word的人工智能会在听起来“不敏感”的词下面划线,建议作者使用替代词来避免引起冒犯。
Fast Company举出了一个例子:
比如你写道,“我们需要一些新鲜血液。”
人工智能可能会在“新鲜血液”这个词下面划线,并推荐改为使用“新员工”一词。
它可能会指出你的写作中存在性别偏见的地方。
如果你倾向于用“mailman(邮递员)”或“Congressman (国会议员)”来概括,它可能会建议你改为使用“mailperson(邮递员)”或“Congressperson(国会议员)”。
如果你用“gentlemen’s agreement(君子协定)”这个词,它可能会建议你用“unspoken agreement(不成文规定)”来代替。
如果你将某人描述为“disabled person(残疾人)”,人工智能会建议你使用“person with a disability(身有残疾的人)”。
类似后者的人本位的术语更受欢迎,因为它强调的是人,而非强调“残疾”。
这些新的“包容性”检查属于一个更大的写作工具组,称为“完善我的写作(Refine My Writing)”,包括清晰、简洁、标点符号和“敏感的地缘政治术语”,作为其人工智能分析的一部分。
微软计划在6月份开始提供其Word新功能的预览。
有意思的是,微软此前就曾有一个人工智能聊天助手因“政治不正确”而被下线。
2016年3月,微软关闭了他们在推特上的人工智能助手Tay,这个人工智能被设计为类似一个青少年女孩。
“Tay旨在让人们在网上通过轻松有趣的对话相互联系,从而参与人们的对话,并娱乐人们,”当他们公开发布Tay时,微软表示。
“你和Tay聊得越多,她就越聪明。”
然而,在24小时内,Tay就从一个友好的、一张白纸似的女孩变成了一个性狂热、热爱纳粹的特朗普支持者。
也许她更聪明了,但也更可怕了。
Tay发的推文充满了从反犹太、亲希特勒的长篇大论,到赤裸裸的色情内容。
当然,她只是在重复她从Twitter部分网友的言论中学到的东西。
周三,推特用户Room (@codeinecrazzy)在推特上写道“犹太人制造了911”,@TayandYou回复说,“好吧……犹太人制造了911。”
在另一个例子中,Tay在推特上写道:“女权主义是癌症。”
据一些科技新闻媒体报道,一些攻击性的推文随后被删除。
Tay消失前的最后一条信息是:“下回再见,人类,现在我需要睡觉了,今天已经有了这么多的对话,谢谢。”
随后,路透社(Reuters)在推特(Twitter)上向Tay发送了一条直接消息,得到的回复是,它已经离开,很快就会回来。
广告、内容合作请点这里:寻求合作
咨询·服务