无人驾驶汽车紧急情况下撞狗还是撞罪犯?撞婴儿还是撞老人?人工智能全权处理这种问题显然不够让人放心,麻省理工(MIT)则想到一个好主意——把道德选择进行众包。
近日,麻省理工学院发布了一款名为“道德机器(Moral Machine)”的调查平台,采集用户对于无人驾驶汽车的道德倾向,以作为研究未来无人车道德决策的数据样本。
被调查者要经受一系列考验,以确定各个道德维度上的倾向。比如,刹车失灵时,是撞死闯红灯的行人,还是绿灯通过的猫和狗。
还有附带性别倾向的题目:是保护过马路的女性,还是保护车上的男性?
还有这种极个别情况:是保护车上的猫还是撞死罪犯?
爱范儿也参加了测试,得出的道德倾向从9个维度上进行解释,比如,年龄倾向、物种倾向、是否遵纪守法、保护乘客还是行人等等。
此外,受访者还可以自己创造其他情形,并浏览其他人的创造的道德抉择。MIT希望通过这种方式尽可能多的覆盖可能的情况。
MIT表示,当今的人工智能在为人类提供越来越多的支持,在某些领域甚至有代替人类的倾向。在可见的未来,驾驶就是一项可以被机器替代的工作。
机器在未来不可避免地要自行做出平常人类才会面对的道德抉择,有些情况下,还会牵扯到人的生命。
在紧要关头该保护谁,该抛弃谁,这是这个社会不愿面对,但是必须要解决的问题。
我们也看到,在测试过程中,歧视、法律观念等等平常我们避而不谈的价值观争议被暴露无遗。而想要进一步推进无人驾驶,社会上的每个人都需要正视这些丑陋的现实,并为未来无人驾驶的道德决断提供一个普世的准则。
MIT面对这个难题,选择了一条可能是最公正的路径——让成千上万的公众自己决定。
本文来源:不详 作者:佚名