日本的技术工作室大败Facebook,消耗15分钟就调试出完整AI Facebook今年夏天宣告了其在神经网络练习上的新打破。 其研究人员能够在一个小时内运用256个GPU彻底练习好图画处理AI。 随后,有一群不甘示弱的大学研究人员运用1600个Skylake处理器在32分钟内完结练习。 一个星期后,一个日本团队在15分钟内就完结了练习。 明显,业界现已展开了剧烈的AI比赛。 根本上,练习一个神经网络的进程就是把尽可能多的数据以最快速度塞进一台核算机,让核算机对某个事物发生根本了解。ImageNet是核算机将图画与单词相关联的一种方法,它答应核算机“检查”图画并通知咱们它看到的是什么。假如你想要创立一个AI来查找包括“蓝色衬衫”或“爸爸的浅笑”的图画,ImageNet对错常有用的。现在,这类图画处理的基准是一个名为Resnet50的50层神经网络。用该网络在一台非常快的核算机上练习一个深度学习体系,大约需求两个星期。为了削减练习时刻,研究人员将处理器衔接在一起,运用它们的归纳才能。尽管这并不等同于时刻的指数级削减——两台核算机并不会将练习时刻从两周缩减到一天,并且这还涉及到经费问题。11月7日,加州大学伯克利分校、加州大学戴维斯分校和德州高档核算中心的研究人员在32分钟内完结了对Resnet50模型的全面练习。这个团队的精确度能够和Facebook在60分钟内练习出的模型相媲美。不到一个星期,日本人工智能公司Preferred Networks运用自己的超级核算机(由1024个Nvidia Tesla GPU组成)在短短15分钟内练习出了相同的功用。日本公司Preferred Networks仅用了Facebook团队四分之一的时刻就达到了相同的AI辨认准确度,最要害的原因可能就是minibatch的规划。 Facebook运用了8,192个minibatch,而Preferred Networks运用了32,768。 添加minibatch的运用规划并运用了四倍GPU后,Preferred Networks达到了现在的最短记载时刻。运用互联网作为数据集,将协助咱们更快完结AI模型。 要让机器更好地舆解人类,有必要让它们得到一切能得到的数据。 |