欢迎光临GGAMen游戏资讯




英特尔发表最新 AI 芯片 Nervana,把 Google、台积电技术都用上了!

2025-08-26 211


近几年 AI 芯片火热,不让 Nvidia 专美于前,英特尔在确定进入 10 奈米时代后更是积极追赶,美国时间 20 日,英特尔公布首款神经网络处理器 Nervana(代号Springhill)相关细节,包含训练芯片 NNP-T 与推论芯片 NNP-I,加上原有的 Xeon 在 AI 芯片阵容越发坚强,技术也开始兼容了起来。

美国时间 20 日,英特尔在今年 Hot Chips 大会上公布首款神经网络处理器 Nervana 细节,如其名,这是 2016 年英特尔收购包含 Nervana 几家新创公司的成果。Nervana 处理器分为训练芯片 NNP-T 与推论芯片 NNP-I。

训练用的 Nervana NNP-T,主打可编程与灵活性,并强调可从头建构大规模深度学习模型,且尽可能训练电脑在给定的能耗预算内快速完成任务,也无需传统技术的庞大开销。

NNP-T 支援了 Google TPU Tensorflow 架构特有的运算格式“bfloat16”,bfloat16 截断既有的 32 位元 float32 的前 16 位,仅留下后 16 位所组成,在许多机器学习模型可以容忍较低精确度计算、不需降低收敛准确率的情况下,许多模型使用 bfloat16 达到的收敛准确率结果与一般使用的 32 位元浮点(FP32)计算数值的结果一样,降低精度其实能让内存效率取得较佳的平衡,从而训练与部署更多的网络、降低训练所需的时间,有较好的效率与灵活性,而这是英特尔首次将 bfloat16 内建于处理器。

▲bfloat16 浮点格式(Source:Google)

另外有趣的是 NNP-T 其实采用的是台积电 16 奈米 CLN FF+ 制程,这与一般我们对英特尔自行生产芯片的认知有所差异,而在 Nervana 被英特尔收购前,第一代 Lake Crest 就是由台积电所代工。NNP-T 采用台积电最新的 CoWoS(Chip on Wafer on Substrate)封装技术,将 NNP-T 的晶粒与四个 8GB HBM2 内存异质整合堆叠 2.5D,让其封装体积缩小成一个 60X60 mm的芯片。

▲Nervana NNP-T 采用台积电 16nm CLN FF+ 制程(Source:Intel)

英特尔同时发表了推论芯片 Nervana NNP-I,主要针对大型资料中心市场高效能深度学习推论而生,NNP-I 主要基于英特尔 10nm Ice Lake 处理器,官方强调透过此芯片,可提高每瓦效能,让企业以更低的成本执行推论运算工作,降低推论大量部署的成本。英特尔指出,NNP-I在功率 10 瓦下每秒能处理 3600 张影像,而处理器本身亦拥有高度可编程性,且同时不影响性能与功效。

▲Nervana NNP-I 架构(Source:Intel)

NNP-I 已与 Facebook 合作并实际运用在其相关业务上,而 NNP-T 将于今年底以前针对尤其云端服务商相关的高阶客户送样,并在 2020 年之前拓展市场。

(Photo Credit : Intel)

  • At Hot Chips, Intel Pushes ‘AI Everywhere’
  • Intel Deep Dives on Nervana NNP-T: 27 Billion Transistors, 32GB of HBM2 Packed on 688mm-Squared Die
  • Intel unveils inference-capable chip sired by Haifa team
2019-08-21 10:06:00

标签:   游戏头条 资讯头条 ggamen科技资讯 ggamen科技 ggamen科技资讯头条 科技资讯头条 ggamen游戏财经 新闻网 科技新闻网 科技新闻 ggamen ggamen游戏新闻网 科技新闻 科技新闻网 新闻网 科技资讯头条 ggamen科技资讯头条 ggamen科技 ggamen科技资讯 游戏头条 ggamen ggamen游戏新闻网 新闻网 ggamen游戏财经 科技资讯头条 ggamen科技资讯头条 ggamen科技 ggamen科技资讯 资讯头条 游戏头条
212