机器人杀手是指完全的自动化武器,可以自主地、不由人类干涉地选择目标,并与目标交战。目前,它们还不存在,但随着科技的进步,它们正一步步走进现实中。据英国广播公司(BBC)8月21日报道,100多名科技界领袖和人工智能专家敦促联合国采取行动,以阻止“机器人杀手”的发展。
专家提醒:“致命的自动化武器”可能引发危机
报道称,在写给联合国的公开信中,机器人和人工智能公司的116位创始人和首席执行官们,包括有着“硅谷钢铁侠”之称的美国亿万富翁埃隆•马斯克(Elon Musk),提醒联合国有关部门警惕“战争领域的第三次革命”。信中写道,“致命自动化”科技就是一个“潘多拉魔盒”,而时间就是那把开启魔盒的“钥匙”。
116名专家一致呼吁,禁止使用人工智能来管理武器。信中说:“(因为人工智能)一旦发展起来,武力冲突便会成为可能,到那时,战争规模将空前浩大、蔓延速度也将超乎人类的想象。”
专家坦言:“机器人可能会成为恐怖分子的武器,以及独裁者和恐怖分子对抗无辜百姓的武器和用作其他不良用途的武器。潘多拉魔盒一旦被打开,就很难再关闭。”专家们在信中呼吁,建议将这个他们称之为“道德错误”的技术列在联合国《针对特定常规武器公约》(CCW)禁止名单上。
据联合国网站称, 重点关注致命的自主武器系统的联合国政府专家组(GGE)原定于8月21日召开第一次会议,现在已经推迟到11月份。
报道称,此前,联合国委员会已经就禁止发展“机器人杀手”进行了相关讨论。 早在2015年,已经有超过1000名科技专家、科学家和研究人员写信告诫自动化武器的危险性。
专家提醒:“致命的自动化武器”可能引发危机
报道称,在写给联合国的公开信中,机器人和人工智能公司的116位创始人和首席执行官们,包括有着“硅谷钢铁侠”之称的美国亿万富翁埃隆•马斯克(Elon Musk),提醒联合国有关部门警惕“战争领域的第三次革命”。信中写道,“致命自动化”科技就是一个“潘多拉魔盒”,而时间就是那把开启魔盒的“钥匙”。
116名专家一致呼吁,禁止使用人工智能来管理武器。信中说:“(因为人工智能)一旦发展起来,武力冲突便会成为可能,到那时,战争规模将空前浩大、蔓延速度也将超乎人类的想象。”
专家坦言:“机器人可能会成为恐怖分子的武器,以及独裁者和恐怖分子对抗无辜百姓的武器和用作其他不良用途的武器。潘多拉魔盒一旦被打开,就很难再关闭。”专家们在信中呼吁,建议将这个他们称之为“道德错误”的技术列在联合国《针对特定常规武器公约》(CCW)禁止名单上。
据联合国网站称, 重点关注致命的自主武器系统的联合国政府专家组(GGE)原定于8月21日召开第一次会议,现在已经推迟到11月份。
报道称,此前,联合国委员会已经就禁止发展“机器人杀手”进行了相关讨论。 早在2015年,已经有超过1000名科技专家、科学家和研究人员写信告诫自动化武器的危险性。
免责声明:
1、本站部分文章为转载,其目的在于传递更多信息,我们不对其准确性、完整性、及时性、有效性和适用性等作任何的陈述和保证。本文仅代表作者本人观点,并不代表本网赞同其观点和对其真实性负责。
2、中国产业信息研究网一贯高度重视知识产权保护并遵守中国各项知识产权法律。如涉及文章内容、版权等问题,烦请联系QQ:307333508,或在线反馈、link@china1baogao.com、0755-83970586,我们将及时沟通与处理。