Studies in Science of Science ›› 2025, Vol. 43 ›› Issue (3): 530-537.

Previous Articles     Next Articles

  

  • Received:2023-12-31 Revised:2024-02-19 Online:2025-03-15 Published:2025-03-15

道德人工智能的可信任性

朱国义1,吴瑾菁2   

  1. 1. 江西师范大学马克思主义学院
    2.
  • 通讯作者: 朱国义

摘要: 可信AI争议不定背景下,道德人工智能同样无法免俗。基于人际信任进路的质疑者,认为道德人工智能不同于人类主体而不可信。但基于AI算法实证研究显示,人们并非厌恶算法,甚至存在着过度信任。人们不关心建议来自何处,而更关心建议是否道德。获得道德的建议,显然有助于帮助人们作出道德的决策。这凸显出道德人工智能可信的关键点,即帮助人们作出符合道德的决策是其可信之维。道德人工智能可信任性在于,它是混合式策略的学习者,能够掌握人类伦理道德;是合格的道德环境监测器,为道德决策提供所需信息;是知识丰富全面的“伦理专家”,为道德决策提供顾问服务;是尊重人类自治的道德促进者,允许多元化道德视角,以启发式提问增强人类的道德能力。