为什么我们应该考虑人工智能的威胁

作者: 眼爆人工智能网 分类: 人工智能 发布时间: 2018-04-09 15:08

  如果说纽约时报的最新文章是可以相信的,那么人工智能正在变得如此之快,有时看起来几乎是“神奇的”。自动驾驶汽车已经到来, Siri可以听你的声音,找到最近的电影院;而I.B.M.只是设置了“危险” - 让沃森从事医学工作,最初是对医学生进行培训,或许最终有助于诊断。几乎没有一个月没有宣布新的A.I.产品或技术。然而,一些热情可能为时过早:正如我以前指出的那样,我们还没有生产具有常识,视觉,自然语言处理或创造其他机器的能力的机器。我们直接模拟人类大脑的努力仍然是原始的。

  不过,在某种程度上,爱好者和怀疑者之间唯一真正的区别是时间框架。未来学家和发明家雷·库兹威尔认为真实的,人类的A.I.将在不到二十年的时间。我的估计至少是这个数字的两倍,特别是考虑到计算常识方面进展甚微;在构建A.I.方面面临的挑战,特别是在软件层面上,比Kurzweil更难做到。

  但是从现在开始的一个世纪里,没有人会关心它花了多长时间,只有接下来发生的事情。在本世纪末之前,机器很可能比我们更聪明 - 不仅仅是在象棋或琐事问题上,而是从数学和工程到科学和医学等所有方面。艺人,作家和其他创意类型可能还有一些工作要做,但计算机最终将能够自行编程,吸收大量新信息,并以碳基单位只能模糊想象的方式推理。他们每天都可以做到这一点,无需睡眠或喝咖啡休息时间。

  对于一些人来说,这个未来是一件美好的事情。 Kurzweil写了关于一个激动人心的奇点,我们与机器合并,并上传我们的灵魂不朽;彼得Diamandis争辩说,在A.I.将成为开启“丰富”新时代的关键之一,为所有人提供足够的食物,水和消费者配件。像Eric Brynjolfsson这样的怀疑论者和我一直担心A.I的后果。和就业机器人。但即使你抛开对超级先进A.I.的种种担忧,可能会对劳动力市场产生影响,但还有一个问题:那就是强大的AI可能通过与我们争夺资源来更直接地威胁我们。

  大多数人将这种恐惧视为愚蠢的科幻小说 - “终结者”和“黑客帝国”的东西。在我们为中期未来计划的情况下,我们担心小行星,化石燃料的衰落,和全球变暖,而不是机器人。但是詹姆斯巴拉特写的一本黑暗的新书“我们的最终发明:人工智能和人类时代的终结”,为我们至少应该有点担心奠定了坚实的理由。

  巴拉特的核心论点,他从AI中借鉴而来。研究员史蒂夫奥莫洪德罗认为,自我保护和资源获取的驱动力可能是所有目标导向系统中固有的一定程度的智能。用奥莫洪德的话说,“如果它足够聪明,一个设计用于下象棋的机器人也可能想要建造一艘太空船,”以便获得更多的资源用于任何可能的目标。巴拉特写道,一种纯粹理性的人工智能可能会扩大“自我保护的想法......包括对未来威胁的主动攻击”,可能包括那些可能不愿意将自己的资源交给机器的人。巴拉特担心,“如果没有一丝不苟的反补贴指令,一个自我意识,自我完善,追求目标的体系将达到我们认为实现其目标的荒谬程度”,甚至可能征服世界上所有的能量,以便最大限度地发挥它感兴趣的任何计算。

  当然,可以尝试完全禁止超级智能电脑。但数学家和科幻小说作家韦尔诺维奇写道:“自动化领域的每一项进步都具有竞争优势 - 经济,军事甚至艺术 - 这是一种通过法律或有习惯的法律来禁止这种事情保证别人会。“

  如果机器最终会超过我们,就像A.I.中的每个人一样。领域认为,真正的问题是关于价值观:我们如何在机器中灌输它们,以及如何在这些机器的价值观可能与我们自己的价值存在很大差异时与我们进行谈判。正如牛津哲学家尼克·博斯特罗姆所说:

  我们不能轻率地认为,超级智能必然会与人类的智慧和智力发展形成定型的最终价值 - 科学好奇心,对他人仁慈的关心,精神启蒙和沉思,放弃物质获得性,对精致文化的品味或对生活中的简单乐趣,谦卑和无私等等

上一篇:<<人工智能的益处和风险 下一篇: 国务院印发新一代人工智能发展规划,到 2030年达到世界领先水>>