眼爆科技

机器人会伤害你?科学家做了实验并回答了七个问题

时间:2018-07-31 15:13  编辑:眼爆科技

艾萨克阿西莫夫著名的机器人三定律,对机器人和自动机器人设下行为准则以确保人类的安全,也是一个著名的虚构学说。这部法则首次出现在他1942年的短篇小说《跑位》中,并且也出现在《我,机器人》等经典作品中,在刚开始出现的时候看起来很不错:

1、机器人不得伤害人类,或因不作为而使人类受到伤害。

2、除非违背第一法则,机器人必须遵守人类的命令。

3、在不违背第一及第二法则下,机器人必须保护自己。

当然,应用在现实中的隐藏的冲突和漏洞比比皆是,在我们这个拥有着先进的机器学习软件和自动化机器人时代,定义和实施人工智能的一套完整可行的道德规范已经成为像机器智能研究所和OpenAI所重点考虑的问题。

Christoph Salge是纽约大学的一名计算机科学家,他采取了一种不同的方法。Salge和他的同事Daniel Polani并没有用自上而下的哲学理论来定义人工智能的行为,而是在研究一种自下而上的道路,或者是机器人应该首先做什么。正如他们在最近的论文中所写的那样,给予权利是机器人三定律的替代品。授权这个概念在一定程度上受到了控制论和心理学的启发,它描述了一个代理人的内在动机,即坚持并在其周围环境中工作。就像有机体一样,它想要生存下去。它想去影响世界,Salge解释道。在电池电量过低的情况下,Roomba会在它快没电时自动寻找充电站,这可能是一种非常基本的授权方式:它必须采取行动让自己没电不能续航时通过充电来维持自身的生存。

授权听起来像是一个导致像Nick Bostrom这样的安全智能思想家担心的结果:强大的自治系统只关心如何让自己的利益最大化并做出一些疯狂的行为。但是,研究人类机器社交互动的Salge想知道,如果一个被授权的人工智能也观察到到另一个被授权的人工智能,结果会是怎样。你不仅想让你的机器人保持运转,你还想保持对它能够与人类友好相处而进行控制。

Salge和Polani意识到,信息理论提供了一种方法,将这种相互赋权转化为一种数学框架,即可以付诸行动的一个非哲学化的人工智能。Salge说:机器人三定律的一个缺点是,它们是基于语言的,而语言有高度的模糊性。我们正在努力寻找一种可以实际操作的东西。

Quanta与Salge讨论了信息理论、虚无主义人工智能和人类与机器人互动的犬类模型。下面是经过精简编辑的对话。

  • 共4页:
  • 上一页
  • 1
  • 2
  • 3
  • 4
  • 下一页




  • 上一篇:科学家发出警告:“杀人机器人”视频令人心惊 下一篇:数百名AI专家力挺马斯克霍金:呼吁禁杀人机器人