眼爆科技

忘掉算法,人工智能的未来还要看硬件突破!

时间:2018-07-31 15:07  编辑:眼爆科技

关于人工智能的炒作都是关于算法的。在机器学习领域处于领先地位的谷歌公司Deep Mind最近发表了一篇文章,其中描述了AlphaGo Zero如何从零开始成为一个围棋大师,其利用强化学习算法的先进技术,击败了之前的所有版本。然而,尽管企业和组织为引进算法设计和数据科学领域的顶尖人才而相互竞争,但真正的新闻并不是来自于比特世界,而是来自于电线、硅和电子行业:硬件又回来了!

摩尔定律的扁平化

首先,一个快速的历史旅程:1958年,第一个集成电路包含了2个晶体管,体积相当大,覆盖一平方厘米。到1971年,摩尔定律在集成芯片性能的指数级增长中变得明显;2300个晶体管在同一表面上,与以前一样。到2014年,IBM P8处理器拥有多达42亿个晶体管和16个核心,所有这些覆盖在650平方毫米。在给定的硅片上,你能装多少个晶体管是有一个自然的限制的,而且我们很快就会达到这个极限。

此外,机器学习应用,尤其是在模式识别(如理解语音、图像等方面)需要大量的并行处理。当谷歌宣布其算法能够识别猫的图像时,他们没有提到的是,它的软件需要16000个处理器才能运行。如果你可以在云计算的服务器上运行你的算法,这不是什么大问题,但如果你必须在一个移动设备上运行这些算法呢?这正日益成为一个重要的行业需求。在终端上运行先进的机器学习算法给用户带来了巨大的优势,同时也解决了许多数据隐私问题。想象一下,如果Siri不需要做云计算,就能够处理智能手机硬件上的所有数据和算法。但是,如果你发现智能手机在几分钟通话或玩 Minecraft后变得太热,你就等着用手机来让Siri变得真正个性化。

解决瓶颈问题

设备变热的原因,以及我们当前计算机硬件设计的主要问题,是所谓的冯诺依曼瓶颈:经典的计算机架构将数据处理与数据存储分离开来,这意味着数据需要在计算过程中从一个地方转移到另一个地方。并行度通过分解计算和分布处理来解决部分问题,但你仍然需要在最后移动数据,将所有的数据都转换成期望的输出。那么,如果有一种方法可以完全消除硬件瓶颈呢?如果处理和数据在同一个地方,无需移动,也不会产生热量或消耗那么多的能量,那会怎样呢?毕竟,我们的大脑就是这样工作的:我们没有像计算机那样处理数据和存储数据的独立区域,所有的事情都发生在我们的神经元上。


  • 共3页:
  • 上一页
  • 1
  • 2
  • 3
  • 下一页




  • 上一篇:2018五大技术趋势:数据无处不在,AI主宰生活 下一篇:LG:大家都在炒作AI,我们却要实际的好处 | CES