据英国每日邮报报道,将自动武器投入战场将很大程度人类战士的负担和危险,但目前专家提出,这样做将更加危险和不安全。近期召开的一次国际会议中,研究人员表示,智能化自动武器可以被不道德行为利用,甚至成为黑客的操控平台。
不同于人类可以完全控制的无人机,未来自动武器将自动选择和攻击目标。该问题在今年1月份瑞士召开的世界经济论坛上重点讨论。美国新南威尔士大学人工智能专家托比-沃尔什(Toby Walsh)教授指出,自动武器是我们2015年关注的一个焦点,我们普遍认为当前并不具备制造伦理机器人的能力,尤其令人担忧的是,近年来全球各国纷纷开始将机器人投入战场,我们并不认为现在能够制造出伦理机器人。
为了制造一个“伦理机器人”,研究人员将对机器人系统编程特殊规则,避免它们失去控制。例如:科幻小说作家艾萨克-阿西莫夫(Isaac Asimov)撰写的一部短篇科幻小说《环舞》,小说中提出控制机器人行为的三条定律,定律一是机器人不能伤害人类,或者遇到人类被伤害时不能坐视不管;定律二是机器人必须遵守人类指令,除非遇到指令与定律一相冲突;定律三是机器人在不违反前两条定律的前提下必须要保护好自己。
专家认为,这三条定律将有助于研制道德规范化机器人,最终设计师将使用这些定律设计机器人。部分专家表示,谈及“人工智能机器人反叛”为时过早。新美国安全中心伦理自动项目主管保罗-夏伦(Paul Scharre)说:“当前绝大多数自动化武器并未投入使用,多数自动化武器系统仍处于‘发射后不管’的阶段,甚至设计的先进系统也不能智能化选择目标。”
夏伦在世界经济论坛上发言指出,虽然自动化武器在战争中并未禁止使用,但是它们如果未来投入战场,能否遵循公认的交战规则将是一个很大的挑战。最终即使自动化机器人合法和遵循伦理道德,它们也是非常危险的,故障失控和敌方黑客侵入,都将使自动化武器系统具有巨大威胁。尤其是自动化武器的安全系统被黑客侵入并改写,这将成为战场上的灾难,伴随着武器系统变得更加自动化,黑客攻击潜在的威胁日益增大,不论是否这个武器平台仍被人类所控制。
本文来源:不详 作者:佚名