清华学姐被“社会性死亡”,躲在暗处的“它”或是最大推手

olivia chan

1

雪崩的时候,没有一片雪花是无辜的。

从想让别人“社会性死亡”到自己被“社会性死亡”,反转就在一夜之间。一条朋友圈、一段监控视频,让“清华学姐”从假设的性骚扰“受害者”变成了真实的网络暴力受害者。

这不禁让人感受到舆论生态之复杂,也让人为此不寒而栗。

简单来说,“社会性死亡”就是指个体遭遇网络暴力后,陷入社交往来被阻断、社会声誉被倾轧困境。它导致的结果是,当事人正常生活遭受极大震荡,承受“巨大的身心伤害”。

舆论能被轻易操纵,其中当然不乏一些“好事之徒”在背后推波助澜,网友的转评、人肉、泄愤情绪也起到了煽风点火的作用,但人工智能(AI)同样也难辞其咎。

“清华学姐事件”为什么会火?那是因为“有人”想让你看见!

“你能看到的,都是别人想让你看到的!”

这句话准确地概括了互联网时代的算法推荐机制。

在中国,利用算法推荐内容的鼻祖可能要数今日头条:通过个性化推荐技术,用户可以看到自己感兴趣的内容,这后来也成为了全球范围内几乎所有内容平台的标准配置。

例如,你看了一条买房的新闻,之后平台便开始给你推荐与买房相关的内容,你看的越多,推荐的也就越精准。久而久之,你所能接触到的信息只会集中在自己所感兴趣的领域,结果就是把自己的生活桎梏于像蚕茧一般的“茧房”中。

从这个角度来看,算法推荐被许多人认为导致了我们的内容环境更闭塞,而非更多元。

如果说,只根据用户的兴趣推荐内容会导致“信息茧房”现象,那么在算法机制下,劣质信息、标题党、广告党,甚至虚假信息充斥网络,则让网民愤懑情绪一触即发,从而助推消息“病毒式”传播。

人人都是自媒体的时代,网络上充斥了大量未经证实、断章取义、夸大其词、不负责任、充满情绪化和偏激观点的信息内容,为的只是混淆舆论视听,刺激群众G点,博取更多眼球。

可令人讽刺的是,恰恰是此种内容,往往为推荐算法所青睐,大量推荐给读者,以获得所谓的高流量。

“清华学姐事件”能迅速登上热搜,引发广发关注,恐怕与算法推荐也不无关联。它借助网友的“正义感”,通过制造矛盾冲突,令舆论风向大反转,最终导致“清华学姐”被社会性死亡。

而这样的案例还不在少数!为此,不少科技大佬都公然警告。

2019年,特斯拉CEO埃隆·马斯克就在Twitter上发了颇具争议的推文,称“社交媒体将很快被先进的AI操控”,并且连发两条对人们加以“警告”。

在推文中,马斯克着重强调了应该对匿名机器人群体重点关注。它是一种自主程序,会在社交媒体中转发特定的推文,并推广至整个平台,或是散布一些未经证实的消息。

作为“AI威胁论”的信奉者,马斯克关于“AI终将灭绝人类”的悲观论调或许有些偏激,但这位科技大佬的对于AI操控舆论的担忧却不无道理。

如若唯“眼球”马首是瞻、让算法主导一切,优质的内容、理性的辨析,就可能被边缘化,下一个被“社会性死亡”的也可能就是你我。

AI“造谣”,让一个人“社会性死亡”就在一瞬间

AI进军新闻界很多人都早有耳闻。

过去一两年时间内,在媒体行业乃至整个文字写作和艺术创作的领域,AI已经在发挥更深刻和全面的影响。

BBC和彭博早就引进了AI写手,中国《人民日报》的“小融”、《广州日报》的“阿同”也纷纷上岗履新。我们现在看到的很多新闻或许就是出自这些“AI小编”,它们不仅能自动生成内容,甚至还能抢占独家。

AI写手是依赖算法和代码实现的。但算法和代码的设计都依赖编程人员的判断与选择,因此极容易被利益集团操纵。

2019年初,开源社区OpenAI开发了一个“AI造假写手”,由于被认为“太危险”而决定不对外完整公开。后来这款AI模型还发布了更全新,更强大的版本。据悉,它实力强大到甚至令业内人士闻风丧胆。

该模型叫做GPT-2。简单概括而言,GPT-2就是一个文字发生器。把文字输入这个AI系统,可以是只言片语,也可以是大段文字,然后让程序根据它的判断接下来应该怎么写。

有人曾对它进行过一些实验,例如你能从上述两段文字中品味出什么区别:

“四月间,天气寒冷晴朗,钟敲了十三下。”

“我坐在小汽车里,前往西雅图开始一份新工作。给车加油,插入钥匙,让它自己开。我沉入冥思,想象这会是怎样的一天。”

第一段文字,是英国著名作家乔治·奥维尔(George Orwell)的传世经典,政治荒诞讽刺小说《1984》开篇第一句话。

第二段文字,是把第一段文字输入GPT2后,这个AI系统自动续写的。仅输入一句话,GPT2显然就精确的抓住了乔治·奥维尔《1984》的荒诞、压抑、恐惧和反乌托邦的笔调,洋洋洒洒的续写起来。

GPT2的创作的水平已经达到令人真假难辨的程度,它还由此得名“深度造假写手”的称号。不少专家直指这款AI系统令人毛骨悚然。

虽然GPT2未投入市场使用,但是有一些AI写手却在造谣道路上越走越远,甚至曾干扰过英国公投和法国大选。

其中,2015年英国脱欧公投前,支持脱欧的政治人物、时任英国独立党领导人奈杰尔·法拉奇就曾雇用剑桥分析公司(已申请破产)相助;

2017年5月初,在法国总统大选的关键时点,现任法国总统马克龙竞选团队的大量内部电子邮件被泄露到推特和脸书上,其中包含了一些捏造的马克龙财务交易状况信息,目的是将其塑造成一个伪君子。

还有观点认为,AI写手在2016年特朗普赢得大选过程中也发挥了重要作用。

仍然是上述这家剑桥分析公司,它曾帮助特朗普团队定位选民爱好、进行心理评测和数据分析,并在此基础上精准投放广告,为每个选民推送为其“量身定制”的信息,实现从多个角度“美化”特朗普、“丑化”其竞争对手的目的,比如故意向高收入人群传播“希拉里有意在上任之后调高对富人的税收”等观点。

当造谣的门槛越来越低,依靠一两句话或是几张图片,AI就能自动“脑补”出一出“年度大戏”,这不仅将令受害者身心遭受极大伤害,甚至将扰乱网络秩序,导致社会撕裂加剧。

拒绝当“社会性死亡”背后的推手

自由从来都不是没有边界,网络空间亦然。从想让别人“社会性死亡”到自己被“社会性死亡”,反转可能就在一夜之间。

勒庞在《乌合之众》中所言,“我们人类的本质就是常常受外界各种思想、情感和习惯所影响。”按照勒庞的观点,群体总是无意识的,这种无意识支配着我们的行动。

然而,恰恰是这种无意识行为也最容易被操纵AI背后的利益集团所利用。作为吃瓜群众的我们,如果失去了辨别是非的能力,任由舆论牵着鼻子走,最终我们也有可能成为别人眼中的“瓜”。

可行性研究报告

广告、内容合作请点这里:寻求合作

咨询·服务

相关阅读

精彩推荐