首页 >> 小鸣

埃克塞特大学的一名名誉研究员呼吁加强对杀手机器人的控制洪玲

2022-07-13 20:27:39

埃克塞特大学的一名名誉研究员呼吁加强对杀手机器人的控制

一位领先的学者警告称,将自治杀手机器人引入战场可能会给人类带来可怕的后果。

世界各地正在开发致命技术,并且随着各国试图保持领先于其他国家,这种技术正逐渐被用于战争。

今年早些时候,一项禁止使用完全自主的杀人机器的全球倡议在今年早些时候被禁止,该机器不需要任何人为监督来选择和执行人员

包括澳大利亚,以色列,美国,俄罗斯和韩国在内的少数几个国家阻止了全球禁令 - 理由是需要就“自主武器的利益和优势”进行进一步谈判。

埃克塞特大学名誉研究员,停止杀手机器人运动的创始成员理查德莫耶斯透露,长期使用杀手机器人,没有人为控制器,可能会给平民带来不必要的生命损失。和士兵。

他补充说:“士兵们不希望与那些无法预测的系统一起被送入战场,而且可能会失控。”

目前,机器人系统可以利用AI并开发致命机器,但它们必须具有“人为监督”。

缺乏控制这种危险机器使用的现有立法,使专家们对战争的未来感到担忧。

莫耶斯在接受“ 每日星报”采访时说:“我们主要担心的是,自主武器被允许在更广泛的区域内独立运作,而且时间更长,导致人类指挥官无法预见的死亡或破坏或预测。

“如果我们不知道武器将被解雇的地方,或者他们将被解雇的对象,那么人类就无法对他们通过使用此类系统所产生的影响做出法律或道德判断。”

莫耶斯先生回应了以前关于各国需要就使用自动杀戮机器达成一致意见的担忧。

他说:'我们认为需要有新的国际法来确保人类继续控制武器系统。

“这是关于保护平民和人类的尊严 - 但这对军队来说也是一个实际问题。

“士兵们不希望与不可预测的系统一起被送入战场,而且可能会脱轨。”

CSKR长期以来一直谴责继续推行自动战争机器,并抨击禁止禁令实施的各县。

专家说,如果没有合适的条约,这些机器可以在一年内在战场上使用。

谢菲尔德大学AI和机器人教授以及公共参与教授Noel Sharkey博士此前告诉MailOnline,禁止使用全自动杀手机器人的国际条约“至关重要”。

人工智能专家在机器人技术领域拥有丰富的历史,包括担任流行电视节目“机器人大战”的首席评委。

他也是CSKR的发言人,称这个决定“可耻”。

夏基教授说:“大多数[国家]都说有意义的人类控制武器至关重要。

“我相信我们会得到一个条约,但担心的是什么样的条约?

“没有条约,杀手机器人可以在一年内推出。”

包括美国和英国在内的一些国家认为,有意义的这个词可以进行辩论,并将这一领域打开到一定程度的主观性。

Sharkey教授和许多其他人认为杀手机器人的主要缺陷是技术无法做出类似人类的决定。

谈到生与死,这可能会产生毁灭性的后果。

夏基教授说:“我不相信他们能坚持战争规则。他们不能从朋友那里破译敌人,他们无法决定比例的反应。这是一个无法在机器人中复制的人类决定。

“例如,你不能说奥萨马·本·拉登的生活值得50位老太太,20个孩子和一个轮椅,它就是这样。

“人类必须做出这些决定,它不能被机器复制,而这就是我们认为应该绘制线条的地方。

“我们不反对自动机器人,但我们认为他们不应该选择自己的目标。

“这些武器可以自行熄灭,找到自己的目标并施加致命武力。

“应该禁止选择和决定目标,这是我们的信念和优先事项。”

如果在条约签署之前爆发大规模冲突,结果可能与化学战一样具有破坏性。

“例如,俄罗斯已经开发出了由人类监督的完全自主坦克,”夏基教授补充道。

“俄罗斯坦克在边境巡逻的想法并没有帮助我在晚上睡觉。”

为什么人们对人工智能感到担忧?

从比尔盖茨到埃隆马斯克,这是一个困扰世界上一些最伟大思想家的问题。

SpaceX和特斯拉首席执行官埃隆马斯克将人工智能描述为我们“最大的存在主义威胁”,并将其发展比作“召唤恶魔”。

他认为超级智能机器可以将人类当作宠物。

斯蒂芬霍金教授表示,在接下来的1000到10000年间,重大技术灾难将威胁到人类,这几乎是“确定无疑”。

他们可以偷工作

根据2016年YouGov调查显示,超过60%的人担心机器人将在未来十年内减少就业机会。

27%的受访者预测,与先前的研究表明,管理和服务业工人将受到的打击最大,这将大大减少就业人数。

除了对我们的工作构成威胁之外,其他专家认为人工智能可能“流氓”并且变得过于复杂,科学家无法理解。

四分之一的受访者预测机器人将在11至20年内成为日常生活的一部分,18%的受访者预测这将在未来十年内发生。

他们可能会“流氓”

计算机科学家Michael Wooldridge教授表示,人工智能机器可能变得如此复杂,以至于工程师无法完全理解它们的工作原理。

如果专家不了解AI算法如何运作,他们将无法预测何时失败。

这意味着无人驾驶汽车或智能机器人可能会在关键时刻做出不可预测的“不合时宜”的决定,这可能会让人处于危险之中。

例如,无人驾驶汽车后面的人工智能可以选择转向行人或撞到障碍物而不是决定驾驶。

他们可以消灭人性

有些人认为AI会完全消灭人类。

“最终,我认为可能会发生人类灭绝,技术可能会在这方面发挥作用,”DeepMind的Shane Legg在最近的一次采访中说道。

他将人工智能列为“本世纪头号风险”。

马斯克警告说,人工智能比朝鲜更能对人类构成威胁。

“如果你不关心人身安全,你应该这样做。这位46岁的人在Twitter上写道,这比朝鲜的风险要大得多。

“没有人喜欢受到监管,但对公众构成危险的一切都受到监管。我应该也是。“

马斯克一直倡导政府和私人机构应用人工智能技术法规。

他认为控制是必要的,以保护机器不受人类控制的影响

节能铸铁猛火炉灶报价

兰考县富来养殖专业合作社

抽屉盒

上海模型科技发展有限公司

钢纸布轮

碳硫分析仪器

发那科FANUC价格

不间断电源价格

威登保罗

箱式无负压供水设备报价

友情链接