• 中国科学学与科技政策研究会
  • 中国科学院科技政策与管理科学研究所
  • 清华大学科学技术与社会研究中心
ISSN 1003-2053 CN 11-1805/G3

科学学研究 ›› 2019, Vol. 37 ›› Issue (1): 18-24.

• 科学学理论与方法 • 上一篇    下一篇

自动驾驶汽车的“道德算法”困境

白惠仁   

  1. 西安交通大学 人文社会科学学院
  • 收稿日期:2017-12-28 修回日期:2018-03-10 出版日期:2019-01-15 发布日期:2019-01-23
  • 通讯作者: 白惠仁
  • 基金资助:

    中国科协“高端科技创新智库青年项目”——“自动驾驶汽车的伦理规范、法律边界与监管政策研究”

The Dilemma of “Moral Algorithm” for Automated Vehicles

  • Received:2017-12-28 Revised:2018-03-10 Online:2019-01-15 Published:2019-01-23

摘要: 当前自动驾驶汽车发展所面临伦理困境的一个核心问题是:是否应该将道德规范嵌入算法结构以及应当以何种方式嵌入。在面对未来可能的交通事故时,屏蔽信息而依靠“道德运气”进行随机选择和基于完全信息的人工智能系统自主抉择都存在严重困难,因此应当为自动驾驶汽车预设“道德算法”。而对于如何决定“道德算法”的问题,鉴于现有道德原则间的相互冲突、道德决策的复杂性以及人类道德判断的情境化特点,基于某种人类既定的道德原则或道德规范是不现实的。

Abstract: One of the core issues facing the current ethical dilemma of autonomous vehicles is:whether ethics should be embedded in the structure of the algorithm and how it should be embedded. In the face of possible traffic accidents in the future, there are serious difficulties in screening information and relying on "moral luck" to make random choices and independent information systems based on artificial intelligence. Therefore, a "moral algorithm" should be preset for autonomous vehicles. And for how to decide the problem of "moral algorithm", in view of the conflict between existing moral principles, the complexity of moral decision-making and the contextualization of human moral judgment, it is unrealistic to base on some kind of ethical principle set by mankind, so we can try to simulate the realization of human moral decision in the same situation.