道德机器(Moral Machine)、道德机器人,道德机器实验(Moral Machine experiment)、道德机器测试
目录 |
道德机器是由美国认知科学哲学家科林艾伦(Colin Allen) 和技术伦理专家温德尔·瓦拉赫( Wendell Wallach)合著的一部机器道德领域的开创性著作,其关注点已经超出了人类如何使用计算机之类的应用伦理学问题,而跨进到该如何建构有道德的机器这一直指实质的问题。[1]
在《道德机器:如何让机器人明辨是非》一书中,作者通过强调两个维度一针对道德相关事实的自主性维度和敏感性维度,给出一个关于日趋复杂的人工道德智能体轨迹的理解框架,以“评估它们面对的选项的伦理可接受性”。他们认为,随着机器变得更加复杂,一种“功能性道德”在技术上变得可能,它可以使机器自身有能力来接近并响应道德挑战。
其后,麻省理工学院开发道德机器实验,致力于采集人类对于未来机器智能(如自动驾驶)可能会遇见的各种道德难题的意见收集平台。
人类即将全面进入机器人时代,计算机已经可以从事金融交易、控制电力供应和驾驶火车。很快,服务类机器人将能在家照顾老人,军事机器人可以投入战斗。当机器人要承担越来越多的责任时,为了我们的安全,它们必须通过程序学会道德判断。设计某种功能性的道德指令,让人工智能机器人习得某些基本的道德感是很有必要且可行的。
麻省理工学院于2016年部署了“道德机器”(Moral Machine)这一在线实验平台,旨在探索自动驾驶汽车面临的道德困境。“道德机器”(Moral Machine)被设计为一款多语言的在线“严肃游戏”,用于尽可能地在全世界范围内收集数据,通过了解公民希望自动驾驶汽车在不可避免的事故情况下如何解决道德难题来进行道德偏好的评估。实验结果于2018年10月发表在《自然》杂志网站上。
在道德机器的主界面上,用户可以看到不可避免的事故场景,根据自动驾驶汽车是突然转向还是继续行驶,从而导向两种不同的结果。事故场景是由道德机器产生的,
测试题中的牺牲对象:
最后的测试分析结果,MIT 将用于学术研究之用。值得一提的是,测试结果并没有对错,只是每个人的道德观不同。
“机器需要讲道德”这是英国皇家标准协会(BSI)最新标准《机器人和机器系统的伦理设计和应用指南》( BS8611 )的硬性规定。
现代科技的每一次跨越,总会引发人们对社会伦理道德的忧虑。随着机器人越来越智能和普遍,自动化机器终将在不可预知的情形下做出生死攸关的决定,从而具备一或至少表面上具备一道德主体资格。
就像一只蚂蚁永远无法阻止我们一样,人类想阻止人工智能的想法已经不可能了。那么,如果有一天AI的能力超过人类,是否会反过来统治人类呢?包括霍金、马斯克在内的科技巨人都曾警示,“人类不应低估人工智能发展可能带来的严重后果。”麻省理工学院情感计算研究组主任罗萨琳德.皮卡德(Rosatlind Picard) 教授认为,“机器越自由, 就越需要道德准则。”
机器的智能化正在逐步深入到生活领域:客机自动降落,列车无人驾驶,没有方向盘、刹车和驾驶座位的无人驾驶的汽车正在紧张的测试中。但是,机器人之“人”终究不是人类之“人”,“如果人们不确定机器会做什么,他们会害怕机器人的…如果我们能分析并证明它们的行为原因,就更可能克服信任问题。”
英国利物浦大学计算机科学家迈克尔,费希尔(Michael Fisher) 和英国西部大学艾伦.温菲尔德(Alan Winfield) 教授共同做的一项政府资助的项目证明“道德机器程序的结果总是可知”的。“在当前的技术水平下,我们不能‘谴责’机器人。机器人尚未达到为自己的决策负责的水平。”
萨塞克斯大学人工智能专家布菜·惠特比(Blay Whitby) 认为,即使最低限度的道德机器人也是有用的。来自国际计算机科学家团队的一项新研究着手开发一种新型的博弈算法一其可以依靠协作和妥协等特性来进行博弈,而且研究人员已经发现,机器已经可以比人类更好地部署这些特性。