AI让终结者降临?马斯克等百名专家呼吁禁止研发杀人机器人

黄粱

一些世界领先的机器人专家和人工智能先驱者呼吁联合国禁止发展和使用杀人机器人。

特斯拉的埃隆·马斯克和谷歌深度思维的联合创始人Mustafa Suleyman正在领导一群来自26个国家的116名专家,呼吁禁止自主武器。

联合国最近投票决定开始正式讨论这类武器,包括无人机、坦克和自动化机枪。在此之前,AI和机器人公司的创始人集团已经向联合国发出公开信,要求它防止目前正在为杀人机器人进行的军备竞赛。

创始人在信中警告常规武器公约的审议会议,即这种军备竞赛有可能在火药和核武器之后迎来“战争中的第三次革命”。

创始人写道:“一旦发展,致命的自主武器将使武装冲突的规模比以往任何时候都要大,而且时间速度超出人类理解范畴。可能是恐怖武器,独裁者和恐怖分子对无辜人民使用的武器,以及以恶意方式行事的武器。

前瞻经济学人

“我们没有太长时间来采取行动了。一旦这个潘多拉的盒子打开,这将很难关闭。”

专家曾经警告说,人工智能技术已经达到了在几年内而不是几十年内部署自主武器的可行性。虽然AI在战场上的应用可让军事人员更安全,但专家们担心,自动操作的进攻性武器会降低战斗的门槛,造成大量人员伤亡。

这封信是周一在墨尔本召开的国际人工智能联合会议(IJCAI)开幕式的公开的,在机器人领域的高调人物的支持下,强烈要求紧急行动的压力下,联合国被迫推迟周一开始的会议,进而审议这个问题。

创始人呼吁将“道德上是错误的”致命的自主武器系统,加入到联合国1983年生效的关于某些常规武器公约(CCW)所禁止的武器清单中,其中包括化学和故意致盲的激光武器。

悉尼新南威尔士大学人工智能科学家教授托比·沃尔什(Toby Walsh)表示:“几乎所有的技术都可以用于好坏,人工智能也一样。它可以帮助解决当今社会面临的许多紧迫问题:不平等与贫困,气候变化带来的挑战和持续的全球金融危机。”

“然而,同样的技术也可以用于自主武器工业化战争。我们今天需要做出决定,选择我们想要的未来。”

前瞻经济学人

马斯克是公开信的签署者之一,曾多次警告要积极主动地监管人工智能,称之为人类存在的最大威胁,但是AI的破坏性潜力被一些人认为是巨大的,也被认为是遥远的。

Clearpath Robotics创始人Ryan Gariepy表示:“与其他仍然处于科幻领域的AI的其他潜在表现不同,自主武器系统正处于发展的尖端,对无辜民众造成重大伤害,造成全球不稳定,具有非常真实的潜力。”

这不是IJCAI(世界领先的AI大会之一)第一次被用作讨论致命的自主武器系统的平台。两年前,这次会议被用来发布由数千名人工智能和机器人研究人员签名的公开信,包括马斯克和霍金同样呼吁禁令,这有助于推动联合国正式会谈该项技术。

英国政府在2015年反对禁止使用致命的自主武器,外交部表示“国际人道主义法已经为这一领域提供了充分的监管”。它说,英国并没有发展致命的自主武器,而且由英国武装部队部署的所有武器都将“受到人的监督和控制”。

科幻小说还是科学事实?

虽然杀人机器人的建议是从科幻小说中勾勒的一幅图像,如《终结者》的T-800或《铁甲威龙》的ED-209,但是致命的自主武器已经在使用。三星的SGR-A1哨戒机枪,据说技术上有能力自主射击,但无论是否部署,都是在韩国2.5米宽的非军事区使用。

前瞻经济学人

马斯克发推表示应该关注AI的安全性

代表韩国政府开发的固定哨戒机枪是第一个具有自主系统的武器,可以用机枪或榴弹发射器进行监视、语音识别、跟踪和射击。但它不是开发中唯一的自主武器系统,原型可用于陆地、空中和海上作战。

由BAE系统公司开发的英国塔拉尼斯无人机旨在能够连续地携带空对空和空对地弹药,并具有充分的自主权。无人驾驶的作战飞行器,BAE Hawk的大小,红箭飞行表演队使用的飞机,在2013年首次试飞,预计在2030年以后可以运行,作为皇家空军未来进攻性飞机系统(FOAS)的一部分,注定要取代人造龙卷风GR4战斗轰炸机。

俄罗斯、美国和其他国家正在开发可以远程控制或自主操作的机器人坦克。 这些项目包括俄罗斯Uran-9无人战斗地面车辆的自主版本,以及改装自主系统的常规坦克。

美国自主战舰,由Vigor Industrial公司建造的“海猎号”,于2016年推出,且仍在开发中,还有反潜能力,包括反潜武器。 表象之下,波音自主Echo Voyager平台上建在的潜艇系统也被考虑用于远程深海军事用途。

可行性研究报告

广告、内容合作请点这里:寻求合作

咨询·服务

相关阅读

精彩推荐