华为麒麟芯片技术,华为麒麟芯片突破了吗( 三 )


华为麒麟芯片技术,华为麒麟芯片突破了吗

文章插图
对于构建 AI 应用来说 , 算子提升了效率,然而大多数手机中的算子库集成于系统中,加入新功能要等手机系统几个月一次的更新,这是很多 AI 新算法难以落地的原因 。
HUAWEI HiAI Foundation 选择把算子库放到云端 , 当有新开发的算子时,只需要对比一下旧的算子库,把更新算子下载到手机端里就可以让所有手机支持新技术了 。这种端云协同的方式既提高了开发者工作效率,又扩大了应用范围,算子更新的频率可以和 App 更新的速度同步 。
相比之下,其他厂商发布的深度学习框架,其算子更新速度通常是以年为单位的 。
作为连接底层硬件算力和应用之间的桥梁,HUAWEI HiAI Foundation 目前支持超过 300 个通用算子 , TensorFlow、PyTorch 等主流深度学习框架,国内开源深度学习平台,以及很多厂商的自用框架 。硬件支持从麒麟 810 到麒麟 9000——内置华为自研 NPU 的所有芯片 。
从一篇顶会论文到手机上的 App,AI 新技术的引入是一个复杂的工程化过程,需要保证性能、功能要求,进行多轮优化 。由于海思和华为终端联合运作的方式 , 在 HUAWEI HiAI Foundation 上芯片厂商与开发者直接进行合作,在一些关键问题上能真正做到效果最优,这是其他竞争对手无法比拟的 。
把更多 AI 搬到手机上
HUAWEI HiAI Foundation 未来的发展方向,是让移动端 AI 模型更简单、更安全、能效更优,构筑全面开放的智慧生态,让开发者能够快速地利用华为强大的 AI 处理能力 , 为用户提供更好的智慧应用体验 。
机器学习模型在最初的研究阶段可能需要泰坦 GPU 进行训练,A40 进行推理 , 谷歌能让机器学会「阅读理解」的 BERT 模型在刚刚发布时体积达到了 500MB 但手机 App 上,自然语言处理模型只有 50 到 100MB 的空间,模型必须被大幅压缩 。
HUAWEI HiAI Foundation 推出的 NAS 模型搜索技术,能让开发者只需要将自己的模型、数据集作为参数提交给工具,随后就能通过自动搜索获得能在端侧运行,效果与原模型效果相当的模型出来 。该技术目前主要面向图像识别、分类、检测等任务,在指定任务中可以自动搜索出效率最优的模型 , 且搜索结果能够实现在 NPU 上性能、功耗比最优 。
另一方面,HUAWEI HiAI Foundation 提供的端侧算力让很多原先必须部署在云端的算法落在了本地 , 所有数据形成闭环,业务数据、照片、语音信息等敏感内容不离开用户,保证了数据安全 。越来越多的端侧 AI,会持续强化这一趋势 。
未来,各类应用对 AI 的需求会越来越拥挤,华为还在继续努力,让麒麟芯片带来更大价值 。
华为麒麟芯片技术,华为麒麟芯片突破了吗

文章插图
2021 年,我国网民人均手机 App 安装总量是 66 款,每人每天使用 App 的时长已超过 5.1 小时,这是一个前所未有的数字 。人工智能技术带来的便利,是手机承担起越来越多任务的原因之一 。
还记得 2017 年 , 华为发布第一款带有 NPU 的芯片麒麟 970 的时候,有很多人会问「它能做什么?」现在,问题已经变成了「这件事,麒麟芯片能不能也来做?」
昨天人们还在开的脑洞,已经被 HUAWEI HiAI Foundation 一步步实现了 。
华为麒麟芯片技术,华为麒麟芯片突破了吗

文章插图
国产的骄傲!华为手机的麒麟芯片到底有多强?集成 5G modem、支持独立和非独立组网、算力提升同时功耗降低......
在 2019 德国柏林国际电子消费展(IFA)上,华为消费者业务 CEO 余承东向全球推出了全新旗舰麒麟990 系列手机 SoC 平台,包括麒麟990 和麒麟990 5G 。余承东称:“这是世界上性能最强的 5G SoC , 也是业界首个、当今唯一一个旗舰级别的 5G 手机 SoC 。”