当前位置:金沙国际唯一官网 > 外国军情 > 承诺决不发展致命性AI军械,杀人机器人

承诺决不发展致命性AI军械,杀人机器人

文章作者:外国军情 上传时间:2019-08-24

图片 1

图片 2

对人类威胁太大!2000科学家联名反对杀人机器人

霍金等千名专家敦促禁止“杀人机器人”

图片 3

  从产能“地狱”归来的马斯克,刚刚领衔2000多名AI专家签署了一份特殊协议。

据美国福克斯新闻网18日消息,包括美国太空探索技术公司创始人埃隆·马斯克、谷歌深度思维创始人在内的2000多名人工智能领域专家,共同签署了《禁止致命性自主武器宣言》,宣誓不参与致命性自主武器系统的开发及研制。这也是迄今针对“杀手机器人”最大规模的一次联合发声。 致命性自主武器系统是能够在没有人类决策的情况下,自主进行选择,完成寻找目标、定位、杀戮敌人这一整套工作的AI系统。将该系统送上战场,意味着机器人可不受人类干涉,自己做出生死攸关的决定。 但其支持者认为,现代作战有快速移动的特点,用机器人代替人类参战可以减少士兵伤亡;而另一方一直激烈反对,表明“杀手机器人”对人类的威胁将大大超过其为军事或执法行动带来的好处——LAWS可能会发生故障失控,也可能落入不良分子手中被恶意操纵,如果其选定目标时没有人类决策,将导致人类的世界危险丛生。 鉴于此,日前在瑞典斯德哥尔摩举办的2018国际人工智能联合会议上,共有来自90个国家、160多家AI企业或机构的2400多名AI领域学者,共同签署了《禁止致命性自主武器宣言》。宣言指出,LAWS会在脱离人类控制的情况下选择目标并实施攻击,这带来了道德及现实层面的双重危险,人类的生命权决不能交给机器,而且,此类武器的扩散将对所有国家、个人造成极大的威胁。 该宣言由位于波士顿的生命未来研究所牵头,签署者包括曾“敲响了人工智能警钟”的埃隆·马斯克、DeepMind的三位共同创始人、Skype创始人以及全球多位顶尖AI学者等。宣言签署者们希望,这一行动能促进立法者颁布正式的国际协议。 生命未来研究所所长表示,LAWS其实与生物武器一样“令人厌恶且不稳定”,应采取同样的方式处理。

图片 4

科技日报北京8月3日电 1000多名知名科学家和人工智能领域专家近日签署公开信,警告可能出现人工智能军备竞赛,并敦促联合国发布针对“攻击性自动化武器”的禁令。

这是再日常不过的一天。

  这份协议核心目的有且只有一个:承诺永不发展致命的AI武器系统。

【环球网军事7月20日报道 环球时报记者 李司坤】好莱坞电影《终结者》为我们展现了杀手机器人横行、人类濒临灭绝的末日场景。随着近年来人工智能技术以及机器人技术的发展,此前还处于人们想象中的场景越来越接近现实,因而也愈发引起人们的警觉。

据英国《卫报》报道,公开信的签署者包括著名科学家斯蒂芬·威廉·霍金、特斯拉CEO伊隆·马斯克、苹果联合创始人史蒂夫·沃兹尼亚克以及谷歌人工智能项目负责人米斯·哈撒比斯等。这封信已在网上公开发表,并于日前提交至在阿根廷布宜诺斯艾利斯召开的国际人工智能联合会议。

一台手掌大小的无人机,在大厦间缓慢飞行,它身上的摄像头在人群中转动、环视、识别。

  在瑞典斯德哥尔摩举行的IJCAL 2018上,由MIT著名物理学家Max Tegmark发起,其任职主席的生命未来研究所(Future of Life Institute,FLI)起草,该协议一经发出就应者如云。

据英国《卫报》19日报道,由美国太空探索技术公司CEO马斯克以及谷歌顶级人工智能研究团队DeepMind创始人萨勒曼领衔的多家科技界大佬,与来自数百家公司的2000多名人工智能及机器人领域的科学家,在斯德哥尔摩国际AI联合会议上联名签署宣言,誓言绝不将他们的技能用于开发自主杀人机器。

公开信称:“人工智能技术已经发展到这样一种地步:尽管不合法,自动化武器的使用将在几年内而不是几十年内会成为现实。这将带来极大的风险,自动化武器已经被称为继火药和核武器之后的武器的第三次革命。”

突然,一个人被无人机精准爆头、一击毙命,随后他周围所有人都被疯狂扫射,一秒内,楼宇间血肉飞溅、尸横遍野。

图片 5

该宣言表示,“我们签署者达成一致意见:永远不应将人类生命的决定权委托给机器”,“致命的自主武器,在没有人为干预的情况下选择和参与目标,将危及每个国家和个人的稳定。”通过该协议,签字者承诺今后将“既不参与也不支持致命自主武器的开发、制造、贸易或使用”。

这封信认为,人工智能可以让战场对军事人员而言更为安全,但是能够自主操作的攻击性武器会降低战争发生的门槛,从而给人类生命带来更大的损失。

而只有一个人毫发无损地从刚刚的枪林弹雨里走出来,无人机随后跟他离开。

  包含企业领域的马斯克、DeepMind联合创始人哈萨比斯、穆斯塔法,Shane Legg;Skype创始人Jaan Tallinn;全球顶尖AI学者Yoshua Bengio、Stuart Russell、Jürgen Schmidhuber等2400全球AI科学家,都郑重签下了大名。

报道称,各国军方是AI技术最大的资助和采购方。借助先进的计算机系统,机器人可以在各种地形上执行任务、在地面上巡逻或是在海上航行。而且“更复杂的武器系统正在筹备中”。《卫报》称,就在本周一,英国防长加文·威廉姆森公布一项价值20亿英镑的计划,确保新的英国空军战斗机“暴风雨”能在没有飞行员的情况下飞行。

公开信指出,如果某个军事力量开始研发能选择攻击目标并在没有人类直接操控情况下自动运行的武器系统,会像当年的原子弹一样引发军备竞赛。而与核武器不同的是,人工智能武器并不需要具体的、难于制造的材料,因此很难对其生产进行监控。这封信称,“人类今天所面对的关键问题在于,是在全球范围内启动一场人工智能军备竞赛,还是将其扼杀在萌芽状态。”

这只是未来AI武器可能会带来的一个小故事。

  就国籍和企业归属而言,他们分属90个国家、160多家AI企业或机构。

美国国家公共电台称,这一承诺的立场在于最终鼓励全球政府采取法律行动。蒙特利尔学习算法研究所的AI领域先驱约书亚认为,如果该承诺能得到公众认可,舆论就会倒向他们。“这一做法已经在地雷问题上奏效了,”约书亚称,“尽管像美国这样的主要国家没有签署禁止地雷的条约,但美国的公司已经停止生产地雷。”

新南威尔士大学人工智能教授托比·沃尔什对这一呼吁表示支持:“我们需要在当下做出决定,这个决定将主宰我们的未来,并事关我们是否走在正确的道路上。”

图片 6

  这也是全球首个AI武器系统开发的民间反对组织,不出意外,也将是影响力最大的一个。

据了解,这已经不是AI届的领袖们第一次表达如上忧虑了。美国国家公共电台称,去年8月,各大科技企业的技术领导人就给联合国写了一封公开信,对围绕此类武器正在开展的军备竞赛提出警告。但问题是,仅靠科学家们的呼吁,人类社会能够避免打开智能杀人机器人这一潘多拉魔盒吗?

“杀人机器人”是当今的热议话题。霍金和马斯克此前都曾警告说,人工智能是人类最大的威胁,而且完全人工智能的发展将导致人类的终结。今年4月,联合国曾专门召开会议讨论了包括“杀人机器人”在内的未来武器的发展,这次会议曾考虑针对某些特定类型的自动化武器颁布禁令,但遭到一些国家的反对。

Google 与美国国防部合作,能用先进的计算机视觉,自动识别无人机拍摄的 38 个类别的物体

  《致命性自主武器宣言》

“有些问题是没办法去百分之百地阻止,因为发达国家都在研究如何将无人技术运用到军事领域,”19日在接受《环球时报》记者采访时,门罗机器人CEO杨兴义对这个问题并没有感到乐观,“在某些方面,科学家和军事部门之间并不是站在同一条战线上的,他们有时候是事物的正反两面。”

现在,AI 武器已经被美国、俄罗斯、英国、法国、以色列和韩国等国家部署和开发,包括 381 种部分自治武器和军事机器人系统。

  这份协议全称《致命性自主武器宣言》(lethal autonomous weapons pledge),核心内容就是宣誓不参与致命性自主武器系统(LAWS)的开发、研制工作,而且LAWS的研发及使用应当被严格禁止。

杨兴义认为,从技术层次上看,想要一劳永逸地杜绝人工智能朝着杀人机器的方向发展是很难的,“用什么方式能够控制自动武器去攻击谁是一件很难的事情,我们只能尽量约束它们开火的权力,比如设置代码或原则,把开火的权力控制在人类手上。”他表示,要防止人工智能技术朝着杀人机器的方向发展,更重要的是通过更多的法律、社会舆论和公众参与以及更多规则的建立来做到相互制约。

承诺决不发展致命性AI军械,杀人机器人。这些基于人工智能的枪支、飞机、船只、坦克、机器人,将有可能在算法的控制下,掀开未来的世界大战。

图片 7

图片 8

  宣言称:人类个体生死的决定权,决不能交给机器。这一方面是出于道德层面的考虑,“掌控他人生死”这件让人产生负罪感的事,绝不能由没有感情的机器做出。

它也被视为一种致命的自主武器系统——不仅「会思考」,能辨别自然语言,还能「有意识」地寻找和辨别攻击目标,以传统武器和士兵无法比拟的速度和效率消灭对手。

  而且致命的AI武器,不受人类干涉、自主选择攻击目标,可归责性与难度都前所未有,它们将成为暴力活动中的强大工具,尤其是与监控、数据系统相结合时。

因为它们携带着目前一切武器都难以预测的杀伤力,AI 专家在美国科学促进会 华盛顿年度会议上表示:

  宣言还强调:致命性自主武器的特征不同于核武器、化学武器及生物武器,研发团队可以单方开启军备竞赛,而国际社会缺乏实行管制的技术手段。谴责并避免这场军备竞赛,是维护全球安全的优先考虑事项。

AI 武器将会带来「战争中的第三次武器革命」,成为人类生存最大的威胁。

  所以今日签署之协议,也是呼吁各国政府及首脑为了地球的未来,共同商议抵制LAWS的国际规范、法律。

承诺决不发展致命性AI军械,杀人机器人。再见,火药和炸弹

  “我们这些未参与LAWS的人,需要以更高标准要求自己:我们绝不参与或支持LAWS的发展、生产、贸易与使用。我们呼吁科技企业、组织及其领袖、决策者与其他民众,共同履行该承诺。”

众所周知,前两次武器革命,每一次都让社会饱受重创,小到秒杀一个人的生命,大到让一个国家瞬间湮灭。

  军方加速、学界反对、企业夹心

第一次武器革命是火药。

  AI致命的话题,早已不新鲜。

13 世纪传入西欧后,靠冷兵器耀武扬威的骑士阶层从此衰落,随着无烟火药、双基火药、雷管等的出现,才产生了真正意义上的军事革命,现代意义上的火箭、炸弹、导弹随之而来,战场上开始炮火连天。

  在AI的所有应用场景中,这是最具争议的一个,而且由于不同组织怀抱不同利益诉求,状态非常尴尬。

图片 9

  在军方,自主武器从2013年开始就开始在美国、英国、以色列和韩国等军方实验室中诞生。

第二次武器革命是核弹。

图片 10

1945 年,日本广岛在一声震耳欲聋的蘑菇云爆炸下,瞬间沦为火海,71379 位无辜平民受难,建筑和人类都如原子一般分崩离析。核爆炸产生的巨大破坏力,还产生了几万年都无法消失的放射性危害。

  区别于其他武器,致命性自主武器,能够在无人控制情况下,自主完成寻找目标、定位、击杀敌人这一整套工作,而AI系统和技术应用,是这些武器最强大的“驱动力”。

而对于 AI 武器的破坏力,特斯拉创始人马斯克曾在联名 2000 多位 AI 专家请愿禁止「杀人机器人」时说道:

  一旦将这些武器派上战场,它们就能自主辨别敌人并给出致命一击,没有情感,没有更多判断,人类的生死权,在机器眼里就是二元的“敌人=死亡”。

请一定记住我的话,AI 要比核武器还危险得多。

  然而硬币另一面,这些武器也不是没有可能落入反派之手,或者被恶意指定攻击目标,结果也就不堪设想。

图片 11

图片 12

这就是将来的第三次武器革命:AI。它也是一场无形的武器革命。

  于是从AI致命武器出现开始,舆论反对的声音就未曾停歇。

其实我们日常生活中对 AI 已经并不陌生,从 Siri 通过语音识别我们的需求,到互联网通过用户画像实现对广告的精准投放,2017 年,进化版 AlphaGo 的 Master 机器人甚至团灭围棋顶尖高手,AI 技术以肉眼可见的速度在进步。

  在科学界,斯蒂芬-霍金、马斯克等知名人士早在2015年就联合千余名AI学者、科学家等向联合国提交过联名公开信,警示AI致命武器潜在风险,以及正在发生的军备竞赛,呼吁颁布相关禁令。

但当它用到武器之中,虽然并不会像《终结者》里那样科幻,但依然足以令人畏惧。

  目前为止也有了一些初步结果。在2016年联合国《常规武器公约》审议大会上,AI致命武器首次被纳入讨论范围。

图片 13

  其后今年4月举行的最近一次会议上,包括中国在内的26国发表联合声明,支持对AI致命武器颁布禁令。

AI 武器将成为一个自主性的杀伤性武器,不仅将能在任何环境下被任何人采用,还能让战争变得工业化、超越人类道德规范,从而变得无法掌控。这也是为什么它在火药和核弹之后,被称为武器的第三次革命。

  这一禁令已有先例:此前,出于人道、伦理原因及潜在的危害性,联合国已经对生物武器、化学武器及太空武器颁布禁令。

只要人们在武器内设定了算法,再加上丰富的传感器、不同功能的摄像头等,一个武器就能精准识别、跟踪、定位某个战斗员,还能中途重新编程和攥改算法,跟踪更多战场变量。

  但是,正式的AI致命武器国际公约,现在仍未达成共识。

在密集的战斗空间里,决策、部署和速度就是关键资产。AI 能够精确制导武器,不用士兵操纵,就能让飞机、战舰、装甲车大规模绞杀敌人,获得更显着的胜利机会。

  而且还将不少企业拖入军方和科研拉锯战的夹心层中。

以往的战斗速度和持续时间都会被改变。因为 AI 武器的杀戮速度,无论是在行动还是思维上,都完全可以超过人类保护自己的速度。

图片 14

图片 15

  今年4月,先是韩国国防公司Hanwha Systems和韩国科学技术院联合建立国防和AI融合研究中心,遭遇全球50多名AI知名学者联名抵制。

2000 年,德国汉诺威举办的世界博览会上展示的机器人. 图片来自:美联社

  其后谷歌AI参与美国国防部的MAVEN军事计划曝光,一时让这家“人类希望”公司内外交困,几乎被骂成“筛子”,3000多名员工联名抗议,不少员工选择离职。

它可怕的地方还在于:每个人,都能利用 AI 的技术让武器变成「杀手」。

  最后在遭受猛烈抨击之后,谷歌推出了新准则,作为公司研发AI技术的道德指导。

植入武器的算法,不需要以往高价或稀缺的原料,一个程序员和一个 3D 打印机,就能做出一群武器制造商才能做出的东西;资金充裕的人,就能实现一个超级大国用一支军队才能办到的事情。

  准则中称,不会将人工智能设计或应用于武器、监视或“其目的违反了广为接受的国际法和人权准则”的技术。

这将使武器廉价批量生产,使战争产业化。

  然而谷歌并非个例。微软、亚马逊等巨头与政府相关的AI合作也相继被曝光,在运用人脸识别进行身份监控等问题上,舆论、股东和员工抗议始终没有停止。

另外,AI 在软件系统中,也能成为一种武器,同样会造成可怕的后果。可以预见的是,恐怖主义的恐慌必将升级,人们将整日覆盖在信息恐慌的无形阴影之下。

  还可以肯定的是,随着AI技术的进一步成熟和各领域应用,权力所求、利欲熏心,争议必然还会始终存在。

图片 16

因为你不知道哪天,就有人操作着精密算法向幽暗处迸发,利用 AI 让全国停电或系统瘫痪,或生成智能恶意软件或黑客程序,精准定位弱势用户和系统,利用数据和隐私胁迫群众。

当越来越多国家开始重视起 AI 武器的未来,预防行动的机会之窗也在迅速关闭。

AI 大战一触即发?

我们已经听过 N 种机器人崛起并毁灭人类的阴谋论,但实际发生的可能性或许是 0。

图片 17

目前 AI 机器的编程也还依赖于固定数据,模型取决于环境条件,信号可能受到干扰,技术背后的科学和大脑都不成熟……

AI 摆脱人类、替代人类、控制人类、成为新物种都很遥远也并不现实,且完全自主的 AI 武器现在还没出现。

虽然表面看起来风平浪静,各个国家还在用传统武器来缩小与世界军事力量的差距,但 AI 带来的无人战斗实力正在逐步显现,由技术驱动的「轻型战争」一直在暗流涌动,等待爆发。

各国正在研究的 AI 武器一般包括七大类:进远程自动射击机器人、智能无人机系统、无人舰船与潜艇、自主射击陆战武器、智能导弹体系、网络攻击与卫星攻击武器等等。

图片 18

一名男子在武器交易会上走过武装机器人系统. 图片来自:Brendan Smialowski / Bloomberg / Getty Images

现在,美国海军陆战队的海军X-47B无人轰炸机已完全由电脑操控,韩国的Super aEgis II自动炮塔、俄罗斯的Platform-M战斗机器人都已实现自动化控制,还有很多无人机、安防机器人已难以区分军用与民用的界限。

美国五角大楼的军方智囊团一致认为人工智能、机器人和人机协同将改变战争进行的方式。俄罗斯高级军事官员也表示,机器人近几年内将在战争中被广泛使用。

而且全球技术支出的加大,也让「完全自治」的人工智能机器更接近实现。国际数据公司的研究表明,全球机器人技术支出将从 2016 年的 915 亿美元翻倍增长到 2020 年的 1880 亿美元。

图片 19

以色列的铁穹部分是自治的,军方官员说完全自主武器很快就会普及. 图片来自:阿米尔科恩 / 路透社

人工智能正在颠覆原有的社会结构和分配方式,数据已经成为了最重要的资源。

《今日简史》里谈到了这样的观点:现代社会已不像过去对石油、殖民地那样疯狂渴求,传统的战争几乎已无利可图,信息社会里最重要的资源是无形的,未来的战争势必是一场技术战。这也是为什么这么多年来,大规模的战争都没出现过的原因。

是的,人们正在为高科技战争做准备,AI 会让战争出现一种隐藏的、新旧交织、复杂混合的新形式。

图片 20

AI 用于军事的趋势是不可阻挡的,虽然它也有一些好处,诸如通过精确定位来减少战争中的平民伤亡,但可能会出现的最坏结果,是更难以掌控的人与人、人与机器、机器与机器之间相互交织的危机。

科技的边界是无限的,但法律和政治需要边界。

荷兰反战非政府组织帕克斯在新报告中担心军备竞赛因此爆发,并表示「要防止最终的灾难,必须采取全面禁令。」

目前,有 28 个国家明确支持禁止使用完全自主武器,但美国、英国等国反对这样的禁令,认为禁令「为时尚早」,还能探索开发和使用自主武器的潜在优势,国家武器审查是处理自主武器的最佳方式。

图片 21

发展中或低度开发国家一般受 AI 武器威胁最大,图为也门街上的壁画涂鸦. 图片来自:路透社

不过从更积极的方面来看,禁令的势头正在增长。

去年,不结盟运动和非洲集团呼吁制定一项具有法律约束力的文书,联合国秘书长也呼吁实施禁令,称这些武器「在政治上是不可接受的,在道德上是令人反感的」,这些呼吁获得了成千上万的人工智能科学家、民间社会、宗教领袖和诺贝尔和平奖获得者的支持。

2013 年 4 月起,和平组织 PAX 共同创立了国际知名的停止杀手机器人运动,近年来,一直在推进禁止自主武器的开发、生产和部署,以及关注其中的法律、道德和安全问题。

对于 PAX 而言,AI 武器必须被禁止的最重要的原因,就是其中的道德问题。

图片 22

禁止杀人机器人组织. 图片来自:stopkillerrobots

越不过道德的边境

当生死决定简化成了算法,我们可以进行一系列没有答案的提问:

如果恐怖分子掌握了这些武器,解决办法是什么?

AI 武器在战斗员不穿制服和平民经常武装的社会中,如何区分人类?

想象中只做正确决策的理性 AI 机器的形象是天真的。

因此我们需要政府对 AI 进行管控,包括带有偏见的算法、开发「杀手机器人」的军备竞赛、科技公司对于个人数据隐私的威胁等等。而人类真的担心一种技术会对未来造成的影响,除了对武器进行有意义的人为控制、确保遵守国际人道主义法和人权法等,各行各业也都需要尽快参与到这项技术的开发和应用中来。

为了减轻政治上的反对意见,美国军队还资助过一个项目,希望为机器人士兵提供良知,让他们有能力做出道德决定。但机器都无法区分载有敌方士兵或儿童的公共汽车,更不用说道德了,这就像是把所有致命错误的责任都委托给了武器。

图片 23

图片来自:Wired

人类士兵拥有诸如日内瓦公约等法律协议来指导他们,但自主机器人现在只受涉及标准武器的武装冲突法的保护。无生命的机器无法理解生命,也不能理解其消失的重要性,但他们有权决定何时将其带走,这多么荒谬。

无论如何,在选择和消除目标时,人们应始终拥有控制权。毕竟,杀手机器人不仅会被我们所使用,它们也会被用来对付我们。放弃人类对生活和死亡决定的控制,将剥夺人们固有的尊严。

任何使用武力的决定,都应该非常谨慎并尊重人的生命价值。

图片 24

反战 NGO 团体「Codepink」2013 年在美国的「无人机展览会」场外抗议. 图片来自:法新社

其实这样的事件历史上已经有过一次先例。

化学武器也曾像自动武器一样便宜,除了使用广泛,还涉猎了法律当时无法禁止的领域,武器公司可以出售化学武器,犯罪分子也能对一个国家发动化学攻击,只要在一次战争中投下它,毒气就将遮天蔽日,随后大地生灵涂炭。

但我们没有禁止化学,而是禁止了使用化学武器。

人类的大脑拥有多么无限可能的智慧,人性就拥有多么不堪一击的脆弱,但好在我们总能在关键时刻,稳住人类的决定权,或者,在大势之下找到最优选择。

AI 也「走」到了这一天。

武器虽然是为战场而生,但它和 AI 一样,到底是一种工具,两者结合最好的意义,理应是保护人类更好的未来。

那让这难得的和平,再持续得久一点吧。

图片 25

题图及末图都来自:stopkillerrobots

本文由金沙国际唯一官网发布于外国军情,转载请注明出处:承诺决不发展致命性AI军械,杀人机器人

关键词: