摘要: 人工智能技术的颠覆性特征将诱发一系列风险,但这些风险往往难以预知和研判,因而可以在社会场景中部分地引入某些人工智能技术,并通过密切监测其社会影响而试验其可行性。这种将人工智能引入社会的过程可以被视为人工智能社会实验。作为社会实验的人工智能在防控风险方面有一定的优势,但其实施过程也存在着不容忽视的伦理问题。这主要源于人工智能社会实验是以人为研究对象,考察“人—人工智能”的内在关系,因而对其伦理关切不仅重要而且必要。人工智能社会实验的目的之一就是通过社会实验解决人工智能的伦理问题。但同时,这种实验本身就存在着伦理争议,伦理的二阶性就导致了隐私、“脏手”、欺骗等现实伦理问题。基于此,应当建构面向人工智能社会实验的伦理框架,即人工智能社会实验伦理,以研判和防控人工智能社会实验的潜在伦理风险。通过提出人工智能社会实验伦理的治理策略,有助于探索科技伦理治理的中国道路。