IBM显示其大脑芯片可以学习的速度有多快
开发一种可以像人类在IBM的思想中那样决定性和聪明的计算机,它正在实现实现这一目标的进展。
名为Truenorth的IBM的计算机芯片旨在模拟人脑的功能。该公司目前正在运行测试和基准测试特鲁菜,以展示芯片可以与今天的计算机进行比较的快速和功率。
头到总比赛的结果令人印象深刻。IBM表示,特鲁菜可以从事深入学习,并根据有关和概率做出决定,就像人类的大脑一样。它可以这样做,同时消耗芯片在其他计算机中使用的一部分的一部分意味着同样的目的。
Truentorth Chip的学习和计算能力“将开辟从事互联网上的整个计算堆栈中嵌入智能的可能性,到智能手机,到汽车,到汽车,云计算,甚至超级计算”在博客条目中。
今年早些时候IBM展示了一个名为NS16E的新电脑中的芯片,这是在大脑之后建模的。计算机可以通过处理单元的神经网络用于图像,语音和模式识别。
人类大脑有100亿神经元,通过数万亿个称为突触的连接互通。一个部分,皮质,负责视觉识别,而其他部件负责电机功能。
像大脑一样,NS16E具有“数字神经元”,但在较小的尺度上,系统中有16个Truenorph芯片。每个Truentorich芯片都有100万神经元和25600万突触,这是通过电路互连的。NS16E具有重新设计的内存,计算和通信子系统,以促进节能数据处理。
IBM表示,Truenorth处理器可以将图像数据分类为每秒1,200和2,600帧,同时仅消耗25到275毫瓦的电力。处理器可以在每秒24帧中识别和识别从50到100个摄像机产生的图像的图案。它可以使用智能手机,无需为日子充电。
这是今天的服务器比服务器更高,这依赖于GPU,CPU和FPGA等传统芯片进行图像和语音识别。Facebook,Google,Microsoft和Baidu使用深入学习,以便近似于与成像和语音识别相关的答案。这些深度学习系统主要由GPU驱动,从而绘制超过150瓦的电力。
IBM的Truenorph使用算法和学习模型,涉及识别模式并关联过去和当前数据。算法仍为不同的深度学习模型创建算法,但芯片可以与MatConvnet这样的现有系统一起使用。从本质上讲,开发人员可以在MATCONVNET上创建学习模型,并且特鲁氏族将进行后台处理。开发人员不需要接触到特鲁语。
该过程类似于游戏开发的早期,程序员Weren“T暴露于GPU时,因为大多数人都知道如何利用片上功能。vulkan最近替换了OpenGL API和公开的GPU功能直接到程序员,他们更好地装配到芯片上的利用功能。
在自动驾驶汽车中说明了深度学习的潜力,它通过识别信号,车道和其他物体安全地使用强大的计算机来安全地导航车辆。像汽车和服务器中的芯片一样,Truentorth芯片对每个神经元进行低级处理,然后它们一起串联,以提供图像中的对象,或识别声音。这是英特尔和NVIDIA在他们的Mega-Chips中使用的技术,这些技术比Truenorth更饥饿。
这仍然是IBM“Truentorich芯片的早期。该公司计划在人类大脑的规模中建立带这些芯片的计算机,但部分挑战是为这类巨大的计算机开发算法和应用。
IBM于2004年开始开发大脑筹码,并模拟2009年猫大脑的规模。2011年的原型芯片有256个数字神经元,具有模式识别能力。具有脑模拟芯片的全电脑仍然可以很长时间休息。
IBM还在将量子计算机构建为代替今天的PC和服务器的选项,该计算机和服务器是基于数十年的计算机设计。德国海德堡大学斯坦福大学斯坦福大学的赫沃特Packard企业和曼彻斯特大学在U.K.