国际要闻 科学家恳求国际应停止制造杀...

科学家恳求国际应停止制造杀手机器人

分享

【新三才首发】数十名科学家、医疗保健专业人士和学者致函联合国,呼吁国际禁止使用自动杀手机器人,称最近人工智能方面的进展「使我们处于致命自主武器新军备竞赛的边缘」。

该信由70多名医疗保健专业人员签署,由生命未来研究所汇总,指出致命的自主武器可能落入恐怖分子和暴君的手中,降低武装冲突的障碍并「成为大规模杀伤力武器,只要很少人就能杀死很多人。」

「此外,当我们永远不放弃将演算法用于人类生活的决定时,自主武器在道德上是令人憎恶的。」这封信继续说道。「作为医疗保健专业人士,我们相信科学的突破具有巨大的社会利益潜力,但不应用于自动化伤害。因此,我们呼吁国际禁止使用致命的自主武器。」

除了这封信之外,艾米莉亚·贾沃斯基(Emilia Javorsky)博士写的一项研究认为,一些致力于致命自治武器系统的国家最近取得的进展将是继火药和核武器之后,代表战争中的「第三次革命」。

生命未来研究所提出的努力遵循了来自世界各地公司和组织2,400多人的2018年承诺。来自谷歌DeepMind、欧洲人工智能协会和伦敦大学学院等人表示他们「既不参与也不支持致命自主武器的开发、制造、贸易或使用」。

过去的担忧

其他人也向联合国提出了关于杀手机器人的好处和代价的担忧。几个国家的专家于2018年8月在联合国日内瓦办事处举行会议,重点关注致命的自主武器系统,并探讨可能对其进行管制的方法等问题。

联合国官员当时表示,理论上目前尚不存在完全自主的计算机控制武器。辩论仍处于起步阶段,专家们有时也在努力解决基本定义问题。美国认为,建立这种系统的定义还为时过早,更不用说它们了。

一些倡导团体表示,应该阻止政府和军队开发这样的系统,这些系统引发了恐惧,并导致一些批评者设想了令人痛苦的使用场景。

2017年,特斯拉首席执行官埃隆马斯克和其他领先的人工智能专家呼吁联合国全面禁止使用无人机、坦克和机枪等杀手机器人。「一旦潘多拉的盒子被打开,就很难关闭。」来自全球的115位专家和马斯克在信中写道。

「我们面临的最大风险」

马斯克一再担心人工智能的兴起,此前曾表示这可能是「我们作为一个文明面临的最大风险」。这位技术高管甚至说它可能导致第三次世界大战。

研究公司IDC预计,到2022年全球机器人和无人机的支出将达到2013亿美元,高于2018年的959亿美元。

多年来,包括马斯克,传奇理论物理学家斯蒂芬·霍金(Stephen Hawking)和其他许多人在内的几位名人都警告人工智能的兴起。在霍金于2017年11月去世之前,他认为如果我们不小心,人工智能最终可以「摧毁」人类。

2017年9月,马斯克在推特上说他认为AI可以在引发第三次世界大战中发挥直接作用。马斯克的想法是对俄罗斯总统普京的评论予以回应,普京说「谁成为[人工智能]这个领域的领导者,将成为世界的统治者。」

(编译:王明真)

(责任编辑:姜启明)

(文章来源:新三才首发)

留下一个答复

Please enter your comment!
Please enter your name here