手机号
验证码

正在加载验证码......

请先拖动验证码到相应位置

密码
确认密码
已有账号, 立即

已发送密码重置邮件到您的注册邮箱,请立即点击密码重置链接修改密码!

验证邮件24小时内有效,请尽快登录您的邮箱点击验证链接完成验证。若未收到邮件请先确认是否在垃圾邮件中。

查看邮箱

找回密码

手机号
验证码
新密码
确认新密码
没有账号? 立即 注册
Follow us on
@EVOLIFE 公众账号
On Wechat
@爱活新鲜播
On Weibo
@EVOLIFE.CN
On Instagram
Nina@evolife.cn
Mail us
@RSS
Follow our feed
vaLarD2017/12/07
英特尔Nervana处理器更新 神经网络芯片迎来Tbit级别带宽

在今年早些时候,英特尔展示了他们在Nervana神经网络处理器方面的进展,Nervana芯片在机器学习和AI领域内大大超过了普通芯片,如今他们又发布了Nervana的最新信息,并表示正努力将其推向市场。

Intel is making further advancements in artificial intelligence with the announcement of the industry’s first neural network processor (NNP) designed for broad commercial enterprise use of AI -- the Intel Nervana Neural Network Processor. The Intel Nervana NNP is specifically designed for AI and optimized for deep learning applications. (Credit: Intel Corporation)

和传统的处理器不同,Nervana特别强调矩阵乘法和卷积计算,这是深度学习用到最多的场景,需要大量的内存和算数运算,传统的芯片结构已经不能适用。为了减少读取外部存储的操作,保证内存带宽的够用,Nervana芯片取消了常见的Cache,改由软件直接负责芯片内存的管理,芯片本地内存模块增加到2MB,每个Nervana芯片约有30M空间,可以一次加载更多的外部数据。

slack-imgs-1

为了进一步的节省内存空间和带宽,英特尔还专为人工智能设计了一种新的数据类型Flexpoint。由于神经网络对于数据的杂音容忍度较高,低精度的Flexpoint类型可以在16bit的存储上,实现近似于32bit浮点操作的效果,节省了一半空间,让处理器和内存带宽的使用效率翻倍。

Nervana芯片还设计有片外互联通道,支持Tbit级别的高速双向资料传输,多个处理器可以组成一个更大的神经网络系统来执行单项任务工作。

Screen-Shot-2017-09-17-at-8.56.28-PM

英特尔在去年收购了深度学习芯片厂商Nervana Systems,意图在AI领域后来追上,不过其它厂商也没干等着,NVIDIA有针对AI应用所设计的Tesla V100,而谷歌为数据中心应用打造了一款Tensor Processing Unit (TPU)芯片,IBM也发表了名为True North的仿神经型态芯片。各家厂商都在机器学习和AI领域加大投入,相信不用太久,这些新技术都会出现在普通人的生活中。

全文完
文章来自:爱活网
了解更多

发表评论

评论
从现在知道的信息来看,应该还是ARM架构,除了ARM也没什么适合移动端的新架构。
还是arm架构吗,听说弄了新架构
EVO_1438 2023/05/25
能把我拍的好看点吗
EVO_1438 2023/05/25
今年realme的声音小了很多啊
EVO_1438 2023/05/25
版权 © 2017 爱活网 Evolife.cn 科技进化生活 [沪ICP备2021031998号]
版权 © 2017 爱活网 Evolife.cn 科技进化生活
[沪ICP备2021031998号]