IBM的几位研究人员近日发布了一份论文,论文阐释了一种所谓的电阻式处理单元(ResistiveProcessingUnit,RPU)的新型芯片概念,据信与传统CPU比起,这种芯片可以将深度神经网络的训练速度提升至原本的30000倍。 深度神经网络(DNN)是一种有多隐层的人工神经网络,这种神经网络才可展开有监督训练,也可展开无监督训练,结果出来的就是需要自行自学的机器学习(或者叫人工智能),也即所谓的深度自学。 前不久Google(Alphabet)DeepMind在人机大战中打败李世石的AI棋士程序AlphaGo就使用了类似于算法。
AlphaGo由一个搜寻树根算法和两个有数百万类神经元相连的多层深度神经网络构成。其中一个网络叫作策略网络,用作计算出来回头哪一步的胜率最低,另一个网络叫作价值网络,用作告诉他AlphaGo怎么移动对白子和黑子都更佳,这样就可以减少可能性的深度。 由于前景寄予厚望,许多机器学习研究人员都早已把焦点集中于到深度神经网络上面。
但是,为了超过一定程度的智能,这些网络必须十分多的计算出来芯片,比如AlphaGo用于的计算出来芯片数量就超过了几千个。所以这是一项很乏计算资源、同时也很烧钱的任务。不过现在IBM的研究人员明确提出了一种新的芯片概念,其强劲的计算能力可以一个就覆以传统芯片的几千,而如果将成千上万个这种芯片人组一起的话,未来AI的能力或许就不会经常出现更好的突破。 这种取名为RPU的芯片主要利用了深度自学等算法的两个特点:本地性以及并行性。
为此ROU利用了下一代非易失性内存(NVM)技术的概念,把算法中用的权重值存储在本地,从而把训练过程中的数据移动最小化。研究人员称之为,如果把这种RPU大规模应用于到有10亿多个权重的深度神经网络,则训练速度最低可以加快30000倍,也就是说平时必须几千台机器训练几天才能出有的结果用这种芯片几个小时就可以搞定,而且能效还要较低得多。 当然,论文只是明确提出了一种概念,这种芯片目前还处在研究阶段,同时鉴于普通非易失性内存仍未转入主流市场,所以这样的芯片上市估算还必须几年的时间。不过如果这种芯片的确有那么大的计算出来和能效优势的话,坚信Google、Facebook等专门从事AI研究和应用于的巨头一定会注目的,而IBM本身也是AI、大数据的大力参与者之一,东西要是做到出来市场是应当不必发愁的。
本文来源:泛亚电竞-www.cqlgljjx.com