眼爆科技

如何制造有道德的机器人?

时间:2019-01-18 16:30  编辑:眼爆科技

图片来源:Pixabay

编者按

2018年12月18日,欧盟人工智能高级别专家组(AI HLEG)正式向社会发布了一份人工智能道德准则草案(DRAFT ETHICS GUIDELINES FOR TRUSTWORTHY AI)。在许多人担忧人工智能取代人类、破坏伦理的大背景下,该草案旨在指导人们制造一种可信赖的人工智能。那么,如何才能让机器人更令人信赖?可否赋予它们道德修养呢?

就此话题,我们采访了美国匹兹堡大学科学哲学和科学史系杰出教授、西安交通大学长江讲座教授科林·艾伦(Colin Allen)。艾伦长期致力于哲学与计算交叉领域,曾获得美国哲学学会颁发的巴韦斯终身成就奖。在与耶鲁大学教授温德尔·瓦拉赫合著的《道德机器:如何让机器人明辨是非》一书中,艾伦认为:尽管完备的机器道德智能体(AMAs)还很遥远,但是目前仍有必要,而且有可能开始建构一种功能性道德,从而使人工道德智能体具有基本的道德敏感性。

今天,让我们一起来看看艾伦对人工智能与道德问题的理解。

采访 | 王小红(西安交通大学计算哲学实验室中方主任)翻译 | 杨冰洁、高元昊

译校 | 王小红责编 | 惠家明

1. 什么是人工智能的道德?

艾伦:人工智能的道德,或者说,道德机器(moral machine)、机器道德(machine morality),有很多不同的含义。在此,我将这些含义归为三大类。在第一种含义中,机器应具有与人类完全相同的道德能力。第二种含义中,机器不用完全具备人类的能力,但它们对道德相关的事实应该具有敏感性,并且能依据事实进行自主决策。第三种含义则是说,机器设计者会在最低层面上考虑机器的道德,但是并没有赋予机器人关注道德事实并做出决策的能力。

就目前而言,第一种含义所设想的机器仍是一个科学幻想,我们并不知道应该如何实现它。所以,我在《道德机器》一书中略过了对它的探讨,而更有兴趣探讨那些介乎第二、第三种意义之间的机器。当下,我们希望设计者在设计机器人时能够考虑道德因素。这是因为,在没有人类直接监督的情况下,机器人可能将在公共领域承担越来越多的工作。这是我们第一次创造可以无监督地运行的机器,这也是人工智能伦理问题与以往一些科技伦理问题之间最本质的区别。在这样的无监督情境中,我们希望机器能够做出更道德的决策,希望对机器的设计不仅仅要着眼于安全性,更要关注人类在乎的价值问题。

  • 共5页:
  • 上一页
  • 1
  • 2
  • 3
  • 4
  • 5
  • 下一页




  • 上一篇:专访优必选 CTO 熊友军:市场对人形机器人应适度宽容 下一篇:没有了