摘要: 人工智能算法不透明或无法解释导致的“算法黑箱”被视为引发算法偏见、歧视或操纵等社会风险的重要原因。既有研究在使用黑箱隐喻时,多将算法视为一种“实体性存在”(代码或模型),谋求通过代码公开或模型解释等方式打开黑箱。然而基于行动者网络理论考察发现,算法本质上是社会与技术性行动者关联互动形成的“关系性存在”。黑箱并非算法技术本身的属性,而是以算法为核心的社会科技系统或行动者网络的特征。为了揭示可能被黑箱隐匿的风险,需要打开黑箱以呈现算法行动者网络中的行动者及其关系。相应地,算法风险治理需要确立算法设计与应用的公共性原则,构建开放包容的算法行动者网络,并实现基于批判性反思的算法信任。