经济学人:需要相应规则管理经济学人周刊

时间:2018-04-11 11:51  编辑:眼爆科技

由于机器人变得越来越智能,人们需要制定相应的规则来管理它们

在经典科幻电影《2001》中,太空船的主机HAL面临一个进退两难的困境。计算机指令要求他既要完成飞船使命(调查一件在木星附近的人工制品),又不能让船员知情。他决定通过杀死船员来解决这一矛盾。

随着机器人变得越来越智能,计算机控制的机器面临道德抉择这一概念正在从科幻电影中走到现实世界中来。为了保证这些机器人做出比HAL更靠谱的抉择,我们需要想办法赋予它们更高的道德判断能力。

机器人的寓言集

不足为奇的是,军事科技稳步走在研发自决能力机器人领域的最前沿(详情请见季度科技汇总),并且在这一发展历程中不段有五花八门的机器人诞生。例如,名为沙蚤(Sand Flea)的机器人遇窗可跳窗,遇屋可上梁,并且全程摄像。之后它又可靠轮子行进,直到需要再次跳窗上梁;代号RiSE的机器人有着六条机械腿,形似蟑螂可攀墙;最高负重答130kg的犬形机器人LS3,可以在崎岖地形中跟在人后面碎步急行;公文包大小的机器人SUGV,可以识别并跟踪人群中的指定目标;无人侦察机系列,有的轻如婚戒,有的则可挂载2.7吨重炸弹。

除此之外,民用机器人也在普及,从驾驶舱到手术室到处都可以见到它们的身影(见文)。在机器人的帮助下,民航客机很早就实现了自主着陆。无人驾驶火车也变得随处可见。沃尔沃旗下新款V40掀背式轿车也已基本上实现了在繁忙路况下的自动驾驶。与福特旗下的B-Max小型面包车一样,V40可以在即将发生碰撞时自动刹车。全自动驾驶汽车正在世界各地展开测试。谷歌研发的无人驾驶汽车在美行驶里程数已超过250,000英里,并且内华达成为美国第一个为此类在公共道路上进行行车测试制定规章的州。不久前,沃尔沃在巴塞罗纳的高速公路上成功测试了一队无人驾驶汽车。

随着机器人变得更加智能与普及,假以时日,智能化机器势必要在不可预料的处境下做出生死攸关的抉择,如此以来机器人便有了——或者像是有了——道德选择能力*。在当前的各种武器系统中,操作员还处于 决策圈内,但随着系统复杂度的提高,并为之配上可自主执行系统命令的武器,操作员很可能就被安置在了执行圈上。

果真如此的话,则机器人将陷入伦理困境。如果已知目标在一所房子内,但其中也可能有平民,无人机是否应该向房子开火?如果是以撞上其他车辆或者危机车内乘员为代价,无人驾驶汽车是否还会选择突然转向以躲避行人?面对可能会造成恐慌的情形,救灾机器人是否应该告诉人们正在发生的事情真相?此类问题开创了机器人道德这一领域,其主要目的是使机器人有能力对此类问题做出恰当的选择——换句话说,就是赋予它们明辨是非的能力。

  • 共3页:
  • 上一页
  • 1
  • 2
  • 3
  • 下一页




  • 上一篇:工业:制造业新劳工?工业视频 下一篇:日本推出iPhone专用犬型宠物双星物语2宠物