业界动态

传高通骁龙855芯片也将内置NPU

2018/8/20 14:48:30

近年来,“人工智能”逐渐从评判一款SoC性能的边缘指标走向中心,影响着SoC厂商的下一款芯片设计,比如高通在2019年的旗舰SoC——骁龙855


根据爆料人 Roland Quandt 在国外论坛 WinFuture 上的说法,骁龙855将内置一颗独立的神经处理单元(NPU),以提升芯片在AI运算方面的性能,降低相应的计算功耗。

微信图片_20180820145017.jpg


实际上,高通对于骁龙SoC的AI运算已经有了成熟的解决方案,推出了骁龙神经处理引擎AIE,通过软件框架来协调SoC中已有的CPU、GPU、DSP硬件进行AI运算,在图像、语音识别等领域有着可靠的应用。


但WinFuture依然指出,采用独立NPU在处理AI数据时应该有助于减轻CPU的负担,当前由CPU或DSP完成的图像信息或语音查询的分析将转移到NPU,可以获得更好的性能。


同时,相比于骁龙AIE过于繁复的语言描述,独立NPU更为简单直接,显然也有利于骁龙SoC在AI性能上的宣传。


据悉,骁龙855是一颗12.4 x 12.4mm的芯片,采用台积的7nm工艺打造,内置骁龙X24 LTE调制解调器,支持Cat.20 LTE,以达到2Gbps的下行速度,可以通过外挂骁龙X50 5G基带实现5G功能。


WinFuture指出,新款SoC的最终名称可能尚未确定,从高通内部流出的消息来看,代号为“SM8150”,按照此前的规则,其中“SM”代表Snapdragon Mobile,而“8150”就是全新SoC的型号,可能传言中的骁龙855会改名为骁龙8150。


高通AIE深度解读


在今年年初,高通宣布推出人工智能引擎(AI Engine),让人工智能在终端侧(如智能手机)上的应用更快速、高效。该AI Engine包括软硬件两部分,在高通骁龙核心硬件架构(CPU、GPU、VPS向量处理器)上搭载了神经处理引擎(Neural Processing Engine, NPE)、Android NN API、Hexagon神经网络库等软件。

微信图片_20180820145040.jpg


大多数移动机器学习(ML)任务(如图像或语音识别)目前都在云中执行,智能手机将数据发送到云端,然后再将计算结果返回到手机。但是目前,在终端设备上执行的机器学习任务越来越繁重。为了给开发人员提供更好的基于机器学习的增强功能,高通推出人工智能引擎AI Engine来封装其当前的ML产品。终端侧人工智能的关键优势包括即时响应、隐私保护增强、可靠性提升,此外,还能确保在没有网络链接的情况下用户的AI体验能到得到保障。


高通骁龙核心硬件架构——Hexagon 向量处理器、Adreno GPU和Kryo CPU都具备支持终端侧快速、高效地运行AI应用的能力。这一异构计算方案让开发者和OEM厂商都能智能手机或端智能硬件设备上优化用户AI体验。


高通首次推出AI引擎,打包所有软硬件算力


在软件方面,高通AI Engine提供三个组件:


1、骁龙神经处理引擎(Neural Processing Engine, NPE)软件框架让开发者可为实现所需的用户体验,选择最适宜的骁龙内核,包括Hexagon向量处理器、Adreno GPU和Kryo CPU,并加速其终端侧人工智能用户体验的实现。骁龙神经处理引擎支持Tensorflow,Caffe和Caffe2框架,以及ONNX (Open Neural Network Exchange)交换格式,在多个骁龙平台和操作系统上,为开发者提供更大灵活性和更多选择。


2、随Google Android Oreo发布的Android NN API,让开发者能通过Android操作系统直接访问骁龙平台。骁龙845将率先支持Android NN。


3、Hexagon Neutral Network(NN)库让开发者可以直接将人工智能算法在Hexagon向量处理器上运行。为基础性的机器学习模块提供了优化的部署,并加速诸如卷积、池化和激活等人工智能运行。



人工智能 SoC性能 骁龙855