专家称禁研人工智能武器不公平,杀人机器人视

作者:3983金沙官网

3983金沙官网 1

AI参战:不可逆转的军事潮流

近日,在日内瓦举办的联合国武器公约会议上,一段可怕的视频公诸于众……美国慌了,伦敦巴黎彻夜无眠,中国虽然暂时无忧,但恐怕今后也要提起十二分精神过日子了!

专家称禁研人工智能武器不公平 西方优势太大

波士顿动力公司日前发布了一段人形机器人Atlas后空翻的视频,动作稳定性连贯性堪比人类体操健将,远非普通人可比,引发惊叹。然而,并非所有智能机器人的技术进步都会讨人喜欢。美国《水银新闻》等多家网站20日报道称,在联合国特定常规武器公约会议上,科学家对“杀手机器人”技术发出警告,认为“机器人杀人”的时代即将到来。

近年来,随着智能化技术的飞速发展及其在军事领域的深度应用,人们对智能武器的担忧与日俱增:智能武器发展到一定程度,会不会调转枪头指向人类?特别是在去年年底,网络上的一段假想机器杀人蜂疯狂屠杀人类的视频,更引发了各国民众的普遍担忧。包括霍金、马斯克在内的知名科学家和企业家纷纷警告,人工智能的破坏力远大于核武器,甚至可能导致人类灭亡。 不过,从智能化技术的发展现状及趋势看,这种忧虑在当下无异于担心“火星上的人口过多”。真正值得人类警惕的,是让智能武器在战场上拥有开火自主权带来的一系列风险。那么,自主杀人武器究竟会带来什么风险? 首先是系统失灵导致误伤。自主杀人武器被赋予了高度的人工智能,人工智能在本质上是由具有思维能力的计算机软件实现,而只要是软件,就一定会出错。美军在这方面有真实案例。2007年10月,美军第3机步师下属部队携带3台“利剑”机器人进攻一个反美武装据点。由于没有及时更新软件,其中1台“利剑”竟把枪口对准美军操作人员,即便在操作人员发出“行动取消”的指令后,失控的“利剑”依然不听指挥,直到另一名美军上尉用火箭筒把它炸翻才化险为夷。 美国《国家利益》杂志网站2016年11月4日刊发文章指出:“无论计算处理技术取得多大进步,如果没有人类监督和控制,完全自主化的武器系统必将犯错。”一旦系统出错,可能丧失辨别敌友与平民的能力,导致暴行发生。而基于智能软件的自主杀人机器可能在同一时间内集体出错,造成的破坏更大。 其次是认知偏见导致武力滥用。支持发展智能武器的人们认为,人工智能作为一种工具,不受情感、态度等主观因素的影响,具有客观公正的优势。但实际上,人工智能建立在算法和大数据的基础上,而算法难免会反映出设计者本身的喜好,“脏数据”则会导致人工智能产生偏见。 哈佛大学教授斯维妮曾做过一项研究,她在谷歌上分别搜索了白人儿童和黑人儿童的常用名字,结果显示,80%的黑人姓名旁边推送的广告出现了“逮捕”字样,而白人姓名出现“逮捕”字样的比例少了30%。另一个典型事例是,研究人员使用基于计算机视觉技术的智能软件识别人脸,结果该软件将黑色皮肤人脸标识为“大猩猩”。不难想象,一旦将存在认知偏见的智能化武器投入未来战场,很可能会对某一类人群滥用武力。 最后,落入坏人之手用于达成邪恶目的。与核武器不同,自主杀人武器不需要昂贵的稀缺材料,其核心能力来自智能软件,因此比较容易获得,因此随着人工智能技术日益平民化,犯罪分子、恐怖分子、叛乱分子等邪恶势力在黑市上获得自主杀人武器只是时间问题。一旦自主杀人武器落入坏人之手,将成为实施杀戮、制造动荡的工具,后果不堪设想。另外,自主杀人武器的使用,大大降低了发动战争的成本,从而导致冲突与战争更加频繁。 人类战争史表明,一旦某种武器能够带来非对称性优势,必将由于国家、部族或群体之间的猜疑、野心和安全感缺失而逐渐扩散,自主杀人武器也不例外。为此,当前最紧迫的工作是世界主要国家通过联合国这一平台加强沟通,增加互信,尽快出台法规约束和政策指导,同时在道德、伦理方面加强研究,尽可能做到防患于未然。

科报讲武堂

1.无人机 人脸识别 撞击——杀手机器人真的来了

从《终结者》到《黑客帝国》,好莱坞影片中的人工智能形象往往是冷酷无情的杀人机器,人类在其面前甚至连基本的自卫都无法做到。在现实中,越来越多的公司正投资开发人工智能,无人作战平台也正在越来越多地参与到战争中,效能不断提升。美国《华尔街日报》27日称,如果这些技术相互结合,“终结者”出现的概率远比想象的要高得多。为防止这种情景的出现,天体物理学家霍金、特斯拉公司CEO马斯克、苹果联合创始人沃兹尼亚克等上百名科技及人工智能领域的领导者联名发出公开信,号召禁止人工智能武器。

3983金沙官网 2

本报记者 张 强

这段视频发布在上周联合国早会上,有超过七十个国家的代表出席。普通的一个会议为什么会引起世界恐慌?因为它曝光了人类史上一个恐怖武器——杀手机器人!

报道称,未来生活研究所在阿根廷举办的人工智能国际联合大会上公布了这封公开信,信中将人工智能武器称为“继火药和核武器后在‘战争领域的第三次革命’”。联名上书的科学家表示,人工智能武器的禁令必须尽快颁布,以避免军备竞赛,这比“控制人口数量的意义更深远”。

据报道,联合国特定常规武器公约会议由“杀手机器人禁令运动”组织,吸引了超过70个国家和地区的代表出席。来自美国加州大学伯克利分校的斯图尔特·罗素尔教授在会上公布了一段可怕的视频:一群小型机器人飞入会场,轻易躲过人类抓捕,通过人脸定位,瞬间杀死正在上课的一群学生,场面非常血腥。这种“杀手机器人”体型微小、貌不惊人,技术含量却不低,不仅装备有微型广角摄像头、灵敏传感器、高爆炸药等多种先进设备,还完全基于人工智能技术,涉及微型集成电路技术、无人智能集群技术、战术信息网络技术、面部识别技术、快速定位技术等多项前沿黑科技。杀手机器人的微型化、隐匿飞行、杀戮式攻击,很容易让人联想到英剧《黑镜》中令人毛骨悚然的杀人蜂机器人,它们无孔不入、防不胜防、不知疲倦、不惧危险,是一种相当高效的强力攻击武器。 罗素尔在视频结尾警告称,尽管视频内容并非真实场景,但视频中的科技目前已经存在,杀手机器人代表的是人类微型智能化技术的集大成者。想象一下,这些致命的智能化武器一旦落入恐怖分子之手,可能造成怎样的后果!要避免“机器人杀人”的悲剧发生,人类需要尽快行动。 目前,像视频中杀手机器人那样的先进智能化武器正处于如火如荼发展热潮中,已形成门类齐全、攻防一体的武器体系。美国不仅研发了UTAP-22“鲭鲨”、XQ-222“女武神”等多款智能化无人机,还先后研发了陆上“翼人”机器人车辆、海上水面无人攻击艇、潜射型机器人、多功能无人潜航器、由海向陆的MUX无人武装直升机等,形成以人工智能技术为基础、以集群智能技术为连接的无人兵团。俄罗斯也研发了“天王星”、“平台”小型无人战车等智能化作战平台。英国BAE系统公司正在研发无人机智能合体技术,希望完成小型无人机与合体无人机的自由变形。 以罗素尔为代表的科学家指出,人工智能技术在军事领域具有巨大潜力,但人工智能技术一旦用于制造不需要人类监管就能自动运行的武器,将打开智能化机器人全自动“杀人”的潘多拉魔盒,将会对人类安全和自由造成毁灭性打击。来自英国的国际机器人武装控制委员会主席诺埃尔·沙基称,他们发起的“杀手机器人禁令”运动并不想限制人工智能和机器人的相关创新,也不是要禁止研发军用或民用人工智能系统,而是希望确保每次攻击的控制权都牢牢掌握在人类手中。

人类战争史表明,前沿科技往往首先应用于军事领域。但几乎从未有一种技术在应用于军事时像人工智能一样,既被寄予厚望,又遭众多反对。美国《华尔街日报》近日的一篇报道强调,尽管近年来美军无人机也多次发生误伤平民的事件,但这并非是智能化武器的错,而是情报识别出了问题。而五角大楼发展Maven计划项目,正是为了更精确地识别、杀伤恐怖分子等敌人,因此谷歌公司“如果真是为了和平,更加应该准备战争”。

3983金沙官网 3

公开信认为,人工智能武器可能的危害首先是“会降低走向战争的门槛”。例如无人机是目前在致命自主武器系统上的最高成果。虽然这类人工智能武器可以减少战场上的人员伤亡,但掌握这种技术的国家不用考虑人员伤亡带来的舆论和政治压力,发动战争的顾忌更少。

对此,中国指挥与控制学会青工委副主任、国防科技大学军事专家石海明副教授对科技日报记者表示,“毋庸置疑,人工智能技术对于保障国家安全具有巨大潜力,但就目前来看其技术成熟度还远远不够。在以往的研究和实践过程中,人工智能技术也表现出了不确定性及失控的风险,比如无人驾驶汽车的伤人事故,以及曾经出现的美军‘利剑’机器人‘倒戈’(将枪口对准美军士兵)事件。反人工智能军事化的思潮就反映了人们对其军事应用前景的某种担忧和焦虑。”

3983金沙官网,杀手机器人并不是人们想象中的人形机器,但它远比《攻壳机动队》中的约翰逊·斯嘉丽更可怕!首先,它是一架体型很小的智能无人机,就跟蜜蜂一样大,但它的处理器比人类快100倍,可以躲避人类各种追踪。其次,蜜蜂虽小,五脏俱全,尤其是它全身的黑科技:广角摄像头、传感器、面部识别,应有尽有。只要把目标图像信息输入它身上,它就能手术刀般精准找到打击对象,戴口罩、伪装统统没用,它的识别率高达99.99!

其次,人工智能武器不像传统的核武器那样难以取得原料,建造它们的材料无处不在,因此未来可能廉价到所有的军事强国都会大批量生产。“他们出现在黑市和恐怖分子手中只是时间问题”。“倘若任何军事力量推进人工智能武器的研发,全球军备竞赛便不可避免,这项技术的结局显而易见:人工智能武器将成为明天的卡拉什尼科夫自动步枪”。

记者了解到,近年来,以无人机为代表的智能武器装备获得了长足发展,包括地面、水面以及水下无人作战装备也开始陆续投放战场,这些人工智能系统已经成为一支不可忽视的重要作战力量。

3983金沙官网 4

这封公开信在全球人工智能领域引起广泛争议,中国科学家们也分持不同立场。中国人工智能领域专家、Horizon Robotics公司创始人兼CEO余凯认为,霍金等人联署的这封公开信是非常有现实意义的提议,因为目前在战场上部署自动识别、跟踪、选择并攻击目标的技术已经成熟了,然而让机器自行判断、决策乃至杀人是非常危险的,也是有悖伦理的。人工智能技术一旦应用在军事领域,确实很危险,目前就有军事大国在研究远程识别人脸并进行攻击的智能武器,它能比人类狙击手更精准地击中对方士兵要害部位。

目前,军事智能化发展受到了世界主要大国高度重视。自上世纪80年代以来,人工智能技术经历几次发展起伏,美国、日本、苏联/俄罗斯和欧洲部分国家先后投入巨资,大力资助和主导人工智能技术的研发工作。

再者,每个杀手机器人配有3克浓缩炸药,确定目标后,一次撞击可以毫无压力爆头,摧毁整个大脑。而且它还能穿透建筑物、汽车、火车,躲避人类子弹,应对几乎所有防御手段。总之,这个杀手机器人目前是bug般的存在!

余凯认为,人工智能技术的进步就像核能等技术的发展一样,既给人类带来很大便利,同时带来相应威胁,警惕人工智能技术军用化可能带来的风险,并不是说不去发展相关技术,而是要控制好这把双刃剑,正视负面的因素并予以管控。

而我国也在相关技术应用领域展开了前瞻性研究。国务院印发的《新一代人工智能发展规划》中指出,要促进人工智能技术军民双向转化,这将有利于新一代人工智能技术在指挥决策、防务推演、国家安全等领域的开发应用。

3983金沙官网 5

而另一名中国人工智能领域的核心专家表示,他收到过这封要求联合署名的公开信,但最终没有签名。该专家表示,他支持禁止使用人工智能技术杀人的倡议,但他没有联合署名就是担心,会给各国民众造成“机器人已发展到将威胁人类安全”的印象。他认为,从现阶段来看,这种观点纯属忽悠,不利于人工智能和机器人的发展。此外还有一个令人不安的因素是,西方某些国家已经将机器人应用于战争之中,进行了非常多的研究和应用,并对他国构成非对称的威胁。在这样的现实基础上,要全球“一刀切”都停止人工智能的军用开发,是不合理的。他希望,将来的战争就是机器对机器的战争,而不是机器对人的战争。(原标题:专家:禁研人工智能武器不公平 西方的优势太大)

“人工智能在军事领域的应用前景极为广阔,包括军用人工智能机器翻译系统、智能电子战系统、自动情报与图像识别系统、算法战武器等。此外,在作战辅助决策系统、指挥与控制系统等以往由人主导的领域,也将逐渐演进到人机协同状态。当然,对未来的发展前景我们仍需认真研判,而非盲目乐观,只有随着仿脑芯片、人机交互技术、脑机接口技术等技术领域发生颠覆性突破,军事领域才有可能引爆真正的革命性浪潮。”石海明说。

2.第三次武器革命正式打响

特别声明:本文转载仅仅是出于传播信息的需要,并不意味着代表本网站观点或证实其内容的真实性;如其他媒体、网站或个人从本网站转载使用,须保留本网站注明的“来源”,并自负版权等法律责任;作者如果不希望被转载或者联系转载稿费等事宜,请与我们接洽。

实际上,自从以无人机为代表的智能武器装备投入战场,有关战争责任的伦理问题就不断涌现。比如,自主机器人能否被授权杀人?参战的自主机器人是否应承担战争责任?等等。

从人类诞生起,一共经历了两次武器革命:第一次以火药为代表,包括枪械和炮弹;第二次以核武器为代表,包括裂变原子弹和聚变氢弹等。每次武器革命,都给人类带来了数不尽的灾难。

“必须指出,对人工智能的军事应用,还有一些问题需要深入研究。比如,人工智能在某些领域的潜能是否会超越人类?人工智能是否会脱离人类的控制?是否会威胁人类的生存?……目前,这些讨论主要还集中在科技伦理领域,有来自军事、科技、文化及哲学等多领域的探究,对技术的长远发展是有益处的。”石海明表示。

然而,随着科技的突飞猛进,一种叫做“致命性自主武器”的技术越来越成熟,已然吹响了第三次武器革命的集结号!

“国际社会目前还没有明确支持一个限制或禁止人工智能武器系统的条约。美军海军研究办公室曾发表一份报告认为,运用在战争中的自主机器人无法承担法律责任。目前机器人还无法分辨平民和士兵,似乎也就无法为其行为负责。”石海明指出,“但是,机器人被‘授权’杀人或者‘自主’杀人,到底应该追究其‘代理人’或者‘授权者’的战争责任?还是程序编写者的责任呢?这些都还需要军事学界和伦理学界的探讨交流。不过有一点可以断定,从人类军事技术创新史的大尺度来看,人工智能深度参与战争,已经呈现出一种不可逆转的趋势。”

什么是致命性自主武器?它实际上是一种军用机器人,可以不经过人类干预,自主选择和攻击包括人员和装备在内的军事目标。比如美国去年研发的无人自动驾驶战舰“Sea Hunter”,其特点是能够在无船员的情况下“续航”数月,遇到危机事件就能自动攻击,直至摧毁对方。

专家称禁研人工智能武器不公平,杀人机器人视频令人心惊。毫无疑问,杀手机器人就是属于这种致命性自主武器!首先,它成本低;其次,千万不要小看它,它杀伤力大得超乎你想象,能颠覆很多核武器实现不了的功能。

比如把一个造价仅2500万美元的杀人机器蜂群释放出去,就可以杀死半个城市的人。只要你把敌人挑出来,定义每一个人的面部信息,蜂群就能发起针对性打击了!

专家称禁研人工智能武器不公平,杀人机器人视频令人心惊。致命性自主武器的运用,意味着自然人在武装冲突中直接发挥的作用越来越小,武器所发挥的作用则越来越大。

杀手机器人只是其中一个分支,这种技术一旦广泛运用,就会把战争冲突升级至前所未有的规模,而且人类将很难控制住局面。作为第三次武器革命的主角,致命性自主武器对人类来说就是灾难!天大的灾难!

3.每个人都在劫难逃

突然想起了一部小说,故事讲的是人们专注于发展人工智能,创造各种机器人来代替人们工作、治安、军事。有一次,一个科学家因为私心在代码里面加了一行毁灭人类的指令,导致人类被机器人横扫,险些灭亡!

3983金沙官网 6

上面演示的是飞行机器人集体攻击人类的画面,通过面部识别定位,轻易杀死了正在上课的一班学生。尽管这只是演示,但视频中的杀人技术已经存在是不争的事实。

美国伯克利大学计算机科学教授斯图尔特·罗素尔,已经在人工智能领域工作了35年。他特意给联合国传话:这个短视频不只是一种推测,它展示了世界在整合以及微型化方面现有的科技成果。

“人工智能有可能使人类在防御能力方面大为受益,然而如果赋予人工智能自行选择杀害人类的能力,那对我们的安全和自由将是毁灭性的打击。”到目前为止,成千上万的人工智能研究者都在声援这个观点!无独有偶,包括美国特斯拉CEO马斯克在内的116位人工智能公司创始人都发表了公开信,呼吁联合国禁止“致命性自主武器系统”的使用。

3983金沙官网 7

除此之外,宇宙学家霍金、苹果联合创始人沃兹尼亚克等1000多名人工智能领域专家也一直在谴责人工智能军备竞赛,马上停止自主武器研究。因为把自然人生命的权利交给非自然人,这实在太特么扯淡了!简直是对人类尊严的践踏!

毫无疑问,杀手机器人这种无人智能武器的出现,会使得世界上的杀戮变得更为容易,会使得军事暴力在未来变得更为频繁。

君不见在巴黎、在伦敦、在美国,隔三差五就有恐怖袭击。在常年动乱的非洲和中东地区,本来那里的居民就在刀口上过日子,如果再有这种杀人如麻的智能武器存在,那绝对会把人类文明推向万劫不复之地!(这里吹一波大天朝,在这方面一直是标杆!)

人工智能有那么多领域不去开发,偏偏研究杀人不眨眼的武器,我怀疑发明者是不是有反人类的基因!希望联合国尽早认识到致命性自主武器的危机,这绝不是危言耸听,而是关系到每个人的生死存亡!否则迟早有一天,人类将大祸临头!

本文由3983金沙官网发布,转载请注明来源

关键词: