摘要: 近年来,人工智能技术的突破性发展为人类社会带来了诸多便利,但与此同时也给人类社会带来了不容小觑的风险和挑战,由此涌现了一系列关于人工智能伦理治理的研究成果。目前,主要的治理策略包括建构伦理治理模型和倡导伦理服务理念,本文试图提出第三种策略作为平行方案,即以实验方法论为基础开展人工智能伦理治理。以实验方法开展人工智能伦理治理的重要性就在于能够有效提升识别伦理风险、评估伦理治理框架、化解伦理治理冲突的效能。以实验方法开展人工智能伦理治理包括计算实验和社会实验,前者旨在利用计算机仿真技术对场景进行模拟和测试,而后者则旨在通过社会调查、社会访谈等方法对真实场景中的问题展开研究。这两种实验方法有其各自的实施过程和适用场景,但也存在着在实际开展过程中的困难和问题。总的来说,以实验方法开展人工智能伦理治理,通过预先设计可控实验探索风险影响机制,有助于从根本上提升人工智能伦理治理的效能,为缩小人工智能伦理治理中“是什么”到“如何做”的鸿沟提供解决思路。