机器人
返回首页

军事机器人到来的会存在哪些忧患

2018-07-26 来源:网络整理

迅速到来的军事机器人革命是空前的。这些技术带来了伦理、法律、政策等问题,可能构成在某些人看来关乎生死存亡的一种危险。

(模式化先进武器机器人系统)

联合国《特定常规武器公约》(CCW)相关会议已经进行了有关致命自动武器的讨论,该公约禁止或限制一些被认为会引起不合理痛苦的武器。 CCW去年11月一场会议召集了一批政府专家和阻止杀手机器人运动组织的非政府组织代表。阻止杀手机器人运动组织希望达成一项具有法律约束力的国际条约,禁止使用致命自动武器,就像此前禁止集束弹药、地雷和致盲武器一样。

棘手的是,自动武器包括从能够有选择性地瞄准的导弹到具有能够决定打击谁、何时打击以及如何打击等认知技能的学习型机器等一系列武器。大多数人认为,当使用致命武器时,应当由人来负责启动。但要确定哪类人工控制是适宜的则更为棘手,并且相关技术发展太快,导致国际外交无法跟上形势。

令情况更加复杂的是,人工智能和自动机器最引人注目的进展正由具有商业动机的私企实现。即使能够达成禁止军用机器人的协议,催生自动武器的技术也会很快普及并容易转让。

防务分析人士彼得·辛格指出,人工智能竞赛由不可阻挡的力量驱动:地缘竞争、知识前沿领域的科学动力以及追求利润的科技企业。因此,是否能抑制人工智能竞赛一些更令人不安的方面以及如何抑制成为问题所在。简单来说,一个令大多数人惊恐的想法是让能够思考的机器自行选择是否杀死人类。而且,尽管有关机器人暴动的终极噩梦仍是小说,但其他担忧则具有现实性。

专家保罗·沙雷担心自动系统可能因代码编写质量不高或对手发动网络攻击而失灵。这可能致使机器人攻击人类部队,或导致局势快速升级,以至于人类无法做出反应。自动武器的可靠性非常难以。会思考的机器可能以人类操控者从未设想过的方式行事。

关于与机器人系统“合作”的讨论大多围绕人类在“观察、调整、决策、行动”(OODA)这一决策循环周期中所处的位置。一架遥控武装“死神”的操控人员处于OODA循环以内,因为他决定无人机飞往何处以及飞抵目的地时采取何种措施。相比之下,有人类跟踪OODA循环的系统会在无人操控的情况下完成大部分任务,但人类可随时介入,例如在目标已经改变的情况下放弃任务。完全自动化的系统(操控人员仅需按下启动按钮)负责执行全部任务,包括目标选择,则处于OODA循环以外。

美国前国防部副部长詹姆斯·米勒说,尽管美国将设法让人类处于OODA循环之内或跟踪OODA循环,但对手可能不会这样。

米勒认为,如果自动系统在竞争激烈的地区执行任务,让机器全权负责的诱惑将变得难以阻挡。

进入机器人查看更多内容>>
相关视频
  • 直播回放: Keysight 小探头,大学问,别让探头拖累你的测试结果!

  • 控制系统仿真与CAD

  • MIT 6.622 Power Electronics

  • 直播回放:基于英飞凌AIROC™ CYW20829低功耗蓝牙芯片的无线组网解决方案

  • 直播回放:ADI & WT·世健MCU痛点问题探索季:MCU应用难题全力击破!

  • Soc Design Lab - NYCU 2023

精选电路图
  • 家用电源无载自动断电装置的设计与制作

  • PIC单片机控制的遥控防盗报警器电路

  • 用数字电路CD4069制作的万能遥控轻触开关

  • 使用ESP8266从NTP服务器获取时间并在OLED显示器上显示

  • 用NE555制作定时器

  • RS-485基础知识:处理空闲总线条件的两种常见方法

    相关电子头条文章