比勒陀利亚

首页 » 常识 » 诊断 » 不许杀人机器出现超过2000名科学家签
TUhjnbcbe - 2023/3/31 23:34:00
江西白癜风微信交流群 http://liangssw.com/bozhu/12678.html
博科园-科学科普

今天在瑞典斯德哥尔摩举办的国际人工智能联合会议上,包括SpaceX及特斯拉CEO埃隆·马斯克(ElonMusk)、谷歌DeepMind三位创始人在内的超过名AI学者共同签署《致命性自主武器宣言》(lethalautonomousweaponspledge),宣誓不参与致命性自主武器系统(LAWS)的开发、研制工作。这也是学界针对“杀人机器人”最大规模的一次集体发声。

携带机枪的杀人机器人THeMIS

*方加速研发Vs学界反对

在AI的众多应用场景中,*事领域显然最具争议。在联合国于年发表的一份报告中,南非比勒陀利亚大学的法学教授ChristofHeyns就指出,LAWS已经在一些国家(如美国、英国、以色列、韩国等)的*方实验室诞生。这时人们意识到,上个世纪科幻小说、电影中的杀人机器人,已经走入现实世界。致命性自主武器系统,是能够在没有人的情况下,自主完成寻找目标、定位、击杀敌人这一整套工作的AI系统。只要将其派上战场,它们将自主辨别敌人并完成杀戮。也就是说,他人生死的决定权,全权交付给了机器人。这不禁引发众人的担心:如果LAWS发生故障失控,或是受到某些人的恶意操纵,可能会导致无法控制的灾难性后果。

感到担忧的不仅是普通民众,一些AI、科学界领袖也站在反对研发LAWS的队列中。年,斯蒂芬·霍金、埃隆·马斯克等千余名AI学者及科学家就向联合国提交联名公开信,警示LAWS*备竞赛的风险,并倡议颁布相关禁令。在多方呼吁下,各国*府也开始严肃讨论LAWS的威胁。年12月,在联合国的《常规武器公约》审议大会上,LAWS首次被纳入讨论范围。而在今年4月举行的最近一次会议上,包括中国在内的26国发表联合声明,支持对LAWS颁布禁令。这一禁令已有先例:此前,出于人道、伦理原因及潜在的危害性,联合国已经对生物武器、化学武器及太空武器颁布禁令。不过,正式的LAWS国际公约诞生仍需时日。

在LAWS的国际公约尚未成型的情况下,多个国家仍在加速LAWS的研发。今年4月,LAWS就再次陷入舆论漩涡。超过50位顶尖人工智能学者就联名抵制韩国科学技术院(KAIST),起因是后者于今年年初与韩国国防公司HanwhaSystems合作建立国防和人工智能融合研究中心,外界担忧KAIST可能会开发杀人机器人;与此同时,谷歌因参与美国国防部的MAVEN*事计划,遭到多名员工的联名抗议。在这种情况下,多名AI学者在今天表明了自己的态度:LAWS的研发及使用应当被严格禁止!

美国海*的机器人在训练中

位学者共同发声

这份宣言由生命未来研究所(FutureofLifeInstitute)牵头,这家位于波士顿的研究机构旨在降低人类的存在风险(existentialrisk)。共有来自90个国家的多名AI学者签署了这份宣言,他们分属多家AI企业或机构。其中最具代表性的人物当属ElonMusk。Musk始终是LAWS坚定的反对者。此前他也一再强调,AI是人类最大的“存在威胁”,我们必须在AI真正威胁到人类之前,就建立前瞻性的规范。

宣言签署者还包括谷歌DeepMind的共同创始人ShaneLegg、MustafaSuleyman、DemisHassabis;Skype创始人JaanTallinn;全球顶尖AI学者StuartRussell、YoshuaBengio、JürgenSchmidhuber等。宣言指出,LAWS会“在不受人类干涉的情况下,选择目标并实施攻击”,这会带来道德及实际层面的双重威胁:一方面,人类生命的决定权“决不能交给机器”;此外,此类武器的扩散将“对于所有国家、个人造成极大的威胁”。

麻省理工大学的著名物理学家MaxTegmark是生命未来研究所的主席,他也是此次宣言的发起者。Tegmark说道:“我很乐于看到,AI领袖开始从言语转向实际行动。AI拥有巨大的潜能,它能让世界变得更好,但我们必须要注意避免被滥用。自主决定人类生与死的武器和生物武器一样令人厌恶且极具破坏性,因此两者理应受到同等对待。”发起对KAIST抵制的新南威尔士大学教授TobyWalsh也参与了这份宣言的签订。“如果有人铁心要研发自主武器,我们根本无法阻拦,正如一些秘密研制化学武器的研究者,”Walsh说,“没有人希望恐怖分子能轻易得到这些武器,因此我们必须确保*火商不会公开售卖它们。”

今年8月,LAWS将再次成为联合国各国讨论的议题。宣言签署者希望,他们的行动能促进立法者颁布正式的国际协议。而在此之前,参与者相信他们的努力也并非一无所获。在前面的案例中,谷歌在受到员工的联名抗议后数周发布新的研究指导方针,承诺不参与AI武器的研发;KAIST的院长也在事后做出类似的承诺。

宣言全文翻译如下:

人工智能随时准备着在*事领域扮演更重要的角色。因此,怎样界定可接受的AI使用范围,成为普通民众、决策者和领袖所面临的紧迫任务。

我们认同的是,人类个体生死的决定权,决不能交给机器。这一方面是出于道德层面的考虑,“掌控他人生死”这件让人产生负罪感的事,绝不能由没有感情的机器做出。

另一方面,是强有力的实际因素:不受人类干涉、自主选择攻击目标的致命性自主武器,对于所有国家、个人而言都是极大的威胁。数千名AI学者一致认为,LAWS使得剥夺他人生命这一过程中的风险、可归责性与难度不复存在,它们将成为暴力活动中的强大工具,尤其当其与监控、数据系统相结合时。

此外,致命性自主武器的特征不同于核武器、化学武器及生物武器,研发团队可以单方开启*备竞赛,而国际社会缺乏实行管制的技术手段。谴责并避免这场*备竞赛,是维护全球安全的优先考虑事项。

我们呼吁各国*府及首脑为了地球的未来,共同商议抵制LAWS的国际规范、法律。我们这些未参与LAWS的人,需要以更高标准要求自己:我们绝不参与或支持LAWS的发展、生产、贸易与使用。我们呼吁科技企业、组织及其领袖、决策者与其他民众,共同履行该承诺。

博科园-科学科普|文:FutureofLifeInstitute、theverge等/环球科学ScientificAmerican/huanqiukexue

博科园-传递宇宙科学之美

1
查看完整版本: 不许杀人机器出现超过2000名科学家签