我国人工智能治理面临的机遇和挑战:基于科技公共治理视角

AI人工智能 2019-08-21 16:30169未知admin

  建立健全人工智能治理体系,是保障人工智能健康发展的必然要求。人工智能治理的核心议题是风险和收益的平衡,以及相关公共决策的知识合法性和参与合法性的协调。本文基于科技公共治理视角,分析了人工智能治理的两个面相,介绍了各国在人工智能治理方面的探索及面临的挑战。在梳理我国人工智能治理实践的基础上,从原则、制度建设和工具开发三个层面提出了改进我国人工智能治理体系建设的建议。

  一、人工智能治理问题的提出

  人工智能是引领新一轮科技革命和产业变革的战略性技术,正在对全球经济社会发展产生重大而深远的影响,[1]是当前全球科技治理的焦点议题。形成一套能有效识别、促成社会意愿“最大公约数”的人工智能治理体系,有效支撑相关公共决策的制定和执行,是促进人工智能健康发展的重要保障。

  (一)科技公共治理及其核心议题

  作为一种特殊类型的公共治理,科技公共治理具备公共治理的一般特征:治理主体多元化、治理机制多样化。[2]同时,科技创新活动及其影响的不确定性高、知识门槛高,又使得科技公共治理有以下两个方面的核心议题。

  1.科技收益与科技风险的权衡问题

  科学技术的“双刃剑”效应使得人们对于科技发展一直有一种矛盾的态度,一方面担心发展太慢,让经济社会发展失速;另一方面又担心发展太快、失去控制,伤及人类。这一矛盾态度使得人们在对待科技发展特别是新兴技术的应用上,出现了“预防原则”(precautionary principle)和“先占原则”(proactionary principle)的持续争论。[3]“预防原则”主张,人们要更谨慎地对待科技发展蕴含的不确定性,以防其带来不可预料的危害。“先占原则”则认为科技创新自由至关重要,不应过分强调与科技发展相关的不确定性的负面影响,反倒是要在规制科技创新方面更加谨慎,以免失去科技发展带来的机会。简单说,前者更强调“安全的科学”,后者则更加强调“科学的安全”。[4]

  2.“知识合法性”和“参与合法性”的张力问题

  科技活动有很强的专业性,较之一般公众,科学家具有很强的知识优势,更有可能作出“知识上”的正确决策,科技相关决策应该主要听科学家的——这是很长时间以来,科学与政治、科学家与公众之间的默契。但是,随着科学的体制化和职业化,知识权力与各种经济和社会利益的深度纠缠,科学家的独立性和客观性不再毋庸置疑。同时,科技对社会的深度纠缠使得科技决策所需的科学知识之外的“社会知识”越来越多,而公民权利意识的增强则意味着公众会越来越不愿意只是被动地接受科学家们的决定。[5][6]换句话说,没有多主体参与的科技公共决策可能在知识上是不完备的,在程序上是“不合法的”。[7]

眼爆科技 Copyright © 2002-2017 深圳眼爆智能科技有限公司 版权所有 备案号:* 本站资源来自互联网,我们转载的目的是用于学习交流与讨论,如果您认为我们的转载侵犯了您的权益,请与我们联系(Email:gm@ybbtb.com),我们将在3个工作日内删除相关内容。

邮箱地址:gm@ybbtb.com