机器杀手的幽灵还在继续。 普京总统信仰什么?
技术

机器杀手的幽灵还在继续。 普京总统信仰什么?

军用机器人的支持者 (1) 认为,自动化武器为保护人类生命提供了更多选择。 机器能够比士兵更接近敌人,并正确评估威胁。 情绪有时会麻痹做出正确决定的能力。

许多使用杀手机器人的拥护者坚信它们会使战争不那么血腥,因为死亡的士兵会更少。 他们指出,机器人虽然不会感到遗憾,但对人类的负面情绪(如恐慌、愤怒和报复)免疫,这些情绪往往会导致战争罪。

人权活动家还使用这样的论点,即军队在过去半个世纪中大大减少了平民伤亡,而军队的机器人化允许一种机制来更严格地执行战争法。 他们声称,当机器配备了迫使它们遵守战争法的软件时,它们就会变得有道德。

当然,很多人,包括非常有名的人,多年来都不同意这种观点。 2013 年 2 月,在口号 (XNUMX) 下发起了一项国际运动。 在其框架内,非政府组织要求完全禁止使用自主武器。 2014年XNUMX月在日内瓦举行的联合国裁军大会上,多国专家首次坐下来讨论这个话题。 几个月后,人权观察和哈佛大学的科学家发表的一份报告说,自主的太危险了——他们选择自己的目标并杀人。 同时,谁该被问责也不是很清楚。

2.作为“停止杀手机器人”动作的一部分进行演示

一群小型无人机能做什么

围绕杀手机器人 (ROU) 的争议已经持续多年,并且不会消失。 最近几个月出现了阻止军用机器人的新尝试,以及有关此类新项目的一波报道,其中一些甚至正在实战条件下进行测试。

2017 年 XNUMX 月,一段视频显示 致命的迷你无人机群 ., 在可怕的行动中。 观众已经看到,我们不再需要掠夺者投掷的重型战争机器、坦克或火箭来用机枪进行大规模杀戮。 伯克利大学人工智能教授、首席主任斯图尔特·拉塞尔说:

上个春天 五十位教授 世界一流大学已向韩国先进科学技术研究院 (KAIST) 及其合作伙伴韩华系统公司发出呼吁。 他们宣布不会与大学合作并接待 KAIST 客人。 原因是两个机构都在建造“自主武器”。 KAIST 否认了媒体的报道。

不久之后在美国 超过 3 名 Google 员工 抗议该公司为军队所做的工作。 他们担心谷歌正在与一个代号为 Maven 的政府项目合作,该项目旨在使用人工智能识别军用无人机视频中的物体和面部。 公司管理层表示,Maven 的目标是拯救生命,让人们免于繁琐的工作,而不是侵略。 抗议者不相信。

战斗的下一部分是宣言 人工智能专家, 包括从事 Google 项目和 伊隆马斯克. 他们承诺不开发机器人。 他们还呼吁各国政府加大力度规范和限制这些武器。

该声明部分表示,“决不应该由机器做出夺取人类生命的决定。” 尽管世界上的军队配备了许多自动装置,有时具有高度的自主性,但许多专家担心,未来这项技术可能会变得完全自主,允许在没有任何人类操作员和指挥官参与的情况下进行杀戮。

专家还警告说,自动杀人机器可能比“核、化学和生物武器”更危险,因为它们很容易失控。 去年 170 月,共有 2464 个组织和 2019 名个人签署了一封由未来生命研究所 (FGI) 赞助的信函。 XNUMX 年初,一群隶属于 FLI 的医学科学家再次呼吁发出一封新信,禁止开发人工智能 (AI) 控制武器。

去年 XNUMX 月在 Gni​​ewo 举行的关于可能对军用“杀手机器人”进行法律监管的联合国会议以成功......机器告终。 包括美国、俄罗斯和以色列在内的一些国家阻止了对这些武器实施国际禁令的进一步工作(《禁止或限制使用某些常规武器公约草案》,CCW)。 这些国家以其在先进的自主和机器人武器系统方面的工作而闻名,这绝非巧合。

俄罗斯专注于战斗机器人

弗拉基米尔·普京总统经常被引用关于军事人工智能系统和战斗机器人的说法:

-.

公开谈论自主武器的发展。 其武装部队总参谋长瓦列里·格拉西莫夫将军最近告诉军事通讯社国际文传电讯社,机器人的使用将是未来战争的主要特征之一。 他补充说,俄罗斯正在努力 完全自动化战场. 副总理德米特里·罗戈津和国防部长谢尔盖·绍伊古也发表了类似的评论。 联邦委员会国防与安全委员会主席维克托·邦达列夫表示,俄罗斯正在努力发展 Roju 技术这将允许无人机网络作为一个单一实体运行。

如果我们记得第一辆远程坦克是在 30 年代在苏联开发的,这并不奇怪。 它们在第二次世界大战开始时使用。 今天俄罗斯也在创造 坦克机器人 变得越来越自主。

普京的国家最近向叙利亚派遣了自己的国家 无人战车Uran-9 (3)。 该设备与地面控制点失去联系,悬挂系统出现问题,其武器无法完美运行,也没有击中移动目标。 这听起来不是很严重,但许多人认为叙利亚擦拭是一个很好的战斗测试,可以让俄罗斯人改进机器。

Roscosmos 已经批准了一项初步计划,在今年 XNUMX 月之前将两个机器人送到国际空间站。 费多尔 (4)在无人联盟。 不像负载,但是。 就像电影 RoboCop 中一样,Fedor 在射击练习中挥舞着武器并展示了致命的枪法。

问题是,为什么太空中的机器人会武装起来? 有人怀疑这个问题不仅在地面应用中。 与此同时,在地球上,俄罗斯武器制造商卡拉什尼科夫展示了一个可视化 机器人伊戈雷克尽管引起了很多笑声,但这表明该公司正在认真研究自动战车。 2018 年 XNUMX 月,卡拉什尼科夫宣布他正在制造一种武器,用于做出“射击或不射击”的决定。

应在此信息中添加报告称,俄罗斯枪械制造商 Digtyarev 开发了一种小型 自动坦克 Nerekht 它可以自己安静地向目标移动,然后以强大的力量爆炸以摧毁其他或整个建筑物。 也 坦克 T14 陆军 ,俄罗斯武装部队的骄傲,专为可能的遥控和无人驾驶而设计。 人造卫星声称,俄罗斯军事工程师正在努力使 T-14 成为全自动装甲车。

异议指令

美国军方本身对其武器的自主性水平施加了相当明确的限制。 2012年,美国国防部发布指令3000.09,规定人类应有权反对武装机器人的行为。 (尽管可能有一些例外)。 该指令仍然有效。 五角大楼目前的政策是,使用武器的决定性因素应该永远是一个人,而且这种判断应该是。 符合战争规律.

尽管几十年来美国人一直在使用飞行、捕食者、死神和许多其他超级机器,但它们不是,也不是自主模型。 它们由操作员远程控制,有时在几千公里的距离内。 关于这种类型机器的自主性的激烈讨论始于原型机的首映。 无人机 X-47B (5),不仅可以独立飞行,还可以从航空母舰上起飞、降落、空中加油。 意思也是在没有人为干预的情况下射击或轰炸。 但是,该项目仍在测试和审查中。

5. 无人驾驶X-47B在美国航母上的测试

2003 年,国防部开始试验一种类似坦克的小型机器人。 SPOES 配备机枪。 2007年,他被派往伊拉克。 然而,该程序在机器人开始出现异常行为后结束,其步枪动作异常。 于是,美军多年放弃了对武装地面机器人的研究。

与此同时,美国陆军的作战支出从 20 年的 2014 万美元增加到 156 年的 2018 亿美元。 2019 年,这一预算已经跃升至 327 亿美元。 这在短短几年内累计增长了 1823%。 专家称,早在2025年,美军或有战场 机器人士兵比人类多.

近日,美国陆军引发并公布了诸多争议 ATLAS 项目 () - 自动的。 在媒体上,这被视为违反了上述指令 3000.09。 然而,美国军方否认并保证将一个人排除在决策周期之外是不可能的。

人工智能识别鲨鱼和平民

然而,自主武器的捍卫者有新的论点。 教授乔治亚理工学院的机器人专家 Ronald Arkin 在他的出版物中指出 在现代战争中,智能武器对于避免平民伤亡至关重要,因为机器学习技术可以有效地帮助区分战斗人员和平民,以及重要和不重要的目标。

这种人工智能技能的一个例子是在澳大利亚海滩巡逻。 无人机小开膛手配备悉尼科技大学开发的 SharkSpotter 系统。 该系统会自动扫描水中是否有鲨鱼,并在发现不安全的情况时提醒操作员。 (6)可以识别水中的人、海豚、船、冲浪板和物体,以区别于鲨鱼。 它可以高精度地检测和识别大约十六种不同的物种。

6. SharkSpotter系统中公认的鲨鱼

这些先进的机器学习方法将空中侦察的准确率提高了 90% 以上。 相比之下,在类似情况下,人类操作员可以准确识别航拍照片中 20-30% 的物体。 此外,在警报之前,识别仍然由人验证。

在战场上,操作员看到屏幕上的图像,很难确定地面上的人是手持AK-47的战斗机,还是手持长矛的农民。 阿金指出,人们倾向于“看到他们想看到的东西”,尤其是在压力大的情况下。 这种影响导致了 1987 年文森斯号航空母舰意外击落伊朗飞机。 当然,在他看来,人工智能控制的武器会比现在的“智能炸弹”更好,这些“智能炸弹”并没有真正的感知能力。 去年 XNUMX 月,一枚沙特激光制导导弹击中也门一辆满载学童的公共汽车,造成 XNUMX 名儿童死亡。

“如果一辆校车被正确贴上标签,那么在自主系统中识别它可能相对容易,”Arkin 在《大众机械》杂志上说。

然而,这些论点似乎并不能说服活动家反对自动杀手。 除了杀手机器人的威胁外,还有一个重要的情况必须考虑。 即使是“好”和“周到”的系统也可能被非常坏的人入侵和接管。 然后,所有为军事装备辩护的论点都失去了效力。

添加评论