摘要: 人工智能社会实验具有场景驱动创新的显著特征,而前者需要迫切解决的人工智能应用中最困扰人类的“责任鸿沟”问题也是在具体场景中生成并得到解决的。通过分析人工智能赋能场景驱动创新的技术逻辑、场景创新对人工智能伦理规约的内在要求,可以得知,“人工智能社会实验伦理”与“人工智能伦理”之间存在“责任鸿沟”方面的共性问题,因此消解人工智能社会实验的“责任鸿沟”成了新的当务之急,这将直接助益人工智能伦理原则与法规的制定。根据实验场景的不同,实验伦理挑战的归责类型可以就性质、界限上的差异做出细分即罪责鸿沟、道德问责鸿沟、公共问责鸿沟、积极责任鸿沟,通过引入“有意义的人类控制”这一当前人工智能全球治理领域最具发展前景的指导思想及实践框架,可以为综合解决人工智能社会实验场景内就认知、具身、道德意义上的控制形式与其多元责任形式之间的脱节提供一种新思路。