去年我们在骁龙峰会上体验到生成式AI在手机、笔记本屛等移动设备上的应用,后续众多搭载第三代骁龙8移动平台的手机,也将这些生成式AI体验逐步融入到越来越多用户的生活中。
今年,我们看到OPPO、魅族全力投入到AI领域中,生成式AI的时代已经开启,随着生成式AI用例需求在有着多样化要求和计算需求的垂直领域不断增加,这使得面向生成式AI设计的神经网络处理器(NPU)成为继CPU、GPU后,又一个技术关键。
从开发者到终端设备厂商均可通过结合NPU使用合适的处理器,异构计算能够实现最佳应用性能、能效和电池续航,赋能全新增强的生成式AI体验。
生成式AI的多样化要求和计算需求需要不同的处理器来满足。支持处理多样性的异构计算架构能够发挥每个处理器的优势,例如以AI为中心定制设计的NPU,以及CPU和GPU。每个处理器擅长不同的任务:CPU擅长顺序控制和即时性,GPU适合并行数据流处理,NPU擅长标量、向量和张量数算,可用于核心AI工作负载。
NPU专为实现以低功耗加速AI推理而全新打造,其架构随着新AI算法、模型和用例的发展不断演进。Al工作负载主要包括由标量、向量和张量数学组成的神经网络层计算以及非线性激活函数。优秀的NPU设计能够为处理这些AI工作负载做出正确的设计选择,与AI行业方向保持高度一致。
正如文章开头中提及的,甚于骁龙平台的生成式AI产品正在不断增加和融入我们的生活,其原因是高通NPU的差异化优势在于系统级解决方案、定制设计和快速创新。通过定制设计NPU并控制指令集架构(ISA),高通能够快速进行设计演进和扩展,以解决瓶颈问题并优化性能。
Hexagon NPU是高通业界领先的异构计算架构——高通AI引擎中的关键处理器,高通AI引擎还包括高通Adreno GPU、高通Kryo或高通Oryon CPU、高通传感器中枢和内存子系统。这些处理器为实现协同工作而设计,能够在终端侧快速且高效地运行AI应用。
除了我们在小米、OPPO、vivo、荣耀等终端手机设备上感知到的生成式AI体验外,高通也正推动生成式AI的加速落地应用,通过提供高性能、多元的硬件芯片组方案满足终端厂商的产品研发需求,并利用高通AI软件栈(Qualcomm AI Stack),让开发者可在高通硬件上创建、优化和部署AI应用,一次编写即可实现在不同产品和细分领域采用高通芯片组解决方案进行部署,提升AI应用的研发效率。