眼爆科技

超智能机器超越自我

时间:2018-04-09 15:04  编辑:眼爆科技

正如好莱坞大片超越本周末与约翰尼德普,摩根弗里曼和人类未来的愿景冲突一样,它很容易将高度智能机器的概念视为科幻小说。 但这会是一个错误,并且可能是我们最糟糕的错误。

人工智能(AI)研究正在迅速发展。 最近的地标,如自动驾驶汽车,在危险中获胜的电脑! ,而数字私人助理Siri,Google Now和Cortana仅仅是一场由前所未有的投资推动的IT军备竞赛的症状,并且建立在日益成熟的理论基础之上。 这样的成就可能会对未来几十年将带来的影响大打折扣。

潜在的好处是巨大的; 文明所提供的一切都是人类智慧的产物; 我们无法预测当人工智能可能提供的这些智力被放大时我们可能会取得什么成果,但是消灭战争,疾病和贫穷在任何人的名单上都是很高的。 创造人工智能的成功将是人类历史上最大的事件。

不幸的是,它也可能是最后一个,除非我们学会如何避免风险。 例如,在短期内,世界军队正在考虑可以选择和消除自己的目标的自主武器系统; 联合国和人权观察都主张禁止这种武器的条约。 从中期来看,正如Erik Brynjolfsson和安德鲁迈克菲在第二机器时代强调的那样,AI可能会改变我们的经济,带来巨大的财富和巨大的混乱。

展望未来,对于什么可以实现没有根本的限制:没有物理法则排除了以比人类大脑中的粒子排列更高级的计算方式来组织粒子。 一个爆炸性的转变是可能的,尽管它可能会和电影中的不同:欧文好在1965年意识到,具有超人智能的机器可以进一步改进设计,从而触发Vernor Vinge称之为“奇点”,约翰尼德普的电影角色称之为“超越”。 人们可以想象这种技术胜过金融市场,发明人类研究员,操纵人类领导人,开发我们甚至无法理解的武器。 鉴于人工智能的短期影响取决于谁来控制它,长期影响取决于它是否可以控制。

因此,面对可能带来无法估计的收益和风险的未来,专家们肯定会尽一切可能确保最佳结果,对吗? 错误。 如果一个优秀的外星人文明给我们发短信说:“我们将在几十年后到达”,我们是否会回答:“好吧,当你到达这里时打电话给我们 - 我们会离开灯光”? 可能不会 - 但这或多或少是AI发生的事情。 虽然我们正面临潜在的人类可能遇到的最好或最坏的事情,但是在剑桥生存风险中心 ,人类未来研究所 , 机器智能研究所等小型非营利机构之外,对这些问题的研究却很少。 ,和生命的未来研究所 。 我们所有人 - 不仅是科学家,工业家和将军 - 应该问自己现在我们能做些什么来提高获取收益和避免风险的机会。

斯蒂芬霍金是剑桥理论物理中心的研究主任,并因其在量子引力方面的工作获得2012年基础物理奖获得者。 Stuart Russell是伯克利的计算机科学教授,也是“人工智能:现代方法”的合着者。 Max Tegmark是麻省理工学院的物理学教授,也是“我们的数学宇宙”的作者。 Frank Wilczek是麻省理工学院的物理学教授,也是2004年诺贝尔奖得主,因为他在强大的核力量方面所做的工作。

 






上一篇:湖州:智能机器人“上岗”当教练 下一篇:Scribit:能在墙壁上作画的,将于4月16日正式推出克隆