眼爆科技

关于人工智能的六点担忧

时间:2018-04-16 09:25  编辑:眼爆科技

2017年,人工智能的发展又到达了一个高峰期,首席信息官、顾问和学者们纷纷表示,这项技术将使得从商业、IT运营到客户联系在内的任何事情实现自动化。然而,进入2018年,越来越多的媒体开始报道人工智能的潜在威胁。

然而,Babson College 的教授Thomas Davenport在其认知技术课上表示:“在媒体上有这么多的炒作,这只是记者试图通过谈论消极的一面来扩大炒作罢了。” 即便如此,这些担忧并不新鲜,从对种族、性别和其他因素的偏见到自动驾驶的无人机可能会带来致命的后果,这些问题一直都存在。

不久前,《麻省理工学院技术评论》(《MIT Technology Review》)发表了一篇题为《如果人工智能最终杀死了一个人,该谁负责?》的文章,这篇文章提出了一个问题:如果自动驾驶汽车撞击并杀死了一个人,应该适用什么样的法律呢?在这篇文章发表仅一周之后,一辆自动驾驶的Uber汽车在亚利桑那州撞死了一名女子。

为此,CIO.com详细列举了一些关于采用人工智能的担忧和隐患,以及为希望开始测试使用该技术的首席信息官们提供的建议。

对人工智能的担忧:

1.不可控的“粗鲁行为”

正如我们从微软的Tay聊天机器人事件中了解到的,会话式消息系统可能是荒谬的、不礼貌的、甚至是非常令人不快的。首席信息官们必须对自己使用的东西以及使用它们的方式非常小心。要摧毁一个品牌的形象,只需要聊天机器人一次令人恼怒的爆发就足够了。

2.感知能力很糟糕

谷歌人工智能科学家及斯坦福大学教授李飞飞在《纽约时报》的一篇专栏文章中表示,人工智能虽然是由人类开发的,但是具有讽刺意味的是,它根本不像人类。她表示,人类的视觉感知是高度背景化的,但人工智能对图像感知的能力却非常的狭隘。为此,人工智能程序员必须与领域专家合作——回归该领域的学术根源——以缩小人与机器感知之间的差距。

3.黑匣子难题

许多企业都想使用人工智能,但金融服务等行业的公司必须非常小心,因为对于人工智能是如何得出其结论这个问题尚未能解决。Fannie Mae的运营和技术负责人Bruce Lee表示:“企业如果不能解决好样本数据偏见对借贷公平造成的影响,就无法提供更好的抵押贷款利率。在诸如信贷决策之类的工作里,人工智能实际上受到了很多监管的阻碍,很多问题有待解决。所以我们所做的很多事情都必须进行彻底的回溯测试,以确保没有引入不恰当的偏见。”

  • 共3页:
  • 上一页
  • 1
  • 2
  • 3
  • 下一页




  • 上一篇:发展人工智能 高校路线图渐趋清晰 下一篇:专访李开复:中国为何将赢得全球人工智能的竞争