移动智能终端人工智能芯片算力评测方法

【摘  要】随着AI芯片软硬件架构的迭代升级,移动智能终端的AI计算能力得到了迅速提升。重点研究移动终端AI芯片的算力评估方法,首先介绍了端侧AI加速技术的发展现状和评测工具,深入研究影响AI芯片算力的各种影响因素,随后结合近两年主流手机AI芯片的算力评估结果,研究得出算力评测的具体方法。

【关键词】移动终端;人工智能;深度学习;神经网络模型;算力

0   引言

人工智能的三大要素是算力、数据与算法。互联网与移动通信的结合产生了海量的数据,深度神经网络的快速发展推动着算法精度的不算提升,英伟达GPU、谷歌TPU等高性能硬件的大规模产业化解决了云端算力问题[1, 20]。但是,移动终端设备在实际运行中会受到传输时延、功耗、成本、安全性等各项制约因素的影响,其中,算力尤其是单位能耗可提供的算力是制约移动智能终端AI能力的主要因素[2]。

近年来,移动终端的人工智能计算能力呈现出大幅增长的态势,移动芯片制造厂商推出的中高端手机芯片都提供了深度神经网络模型的加速计算能力。业界也随之出现了针对端侧人工智能加速计算的各种评测方法和工具[3],本文接下来将针对移动智能终端的AI芯片算力及其评测方法展开研究。

1   端侧AI加速技术及评测工具

2010年之前,手机终端仅能提供600 MHz左右的单核CPU及百兆内存资源用于运行简化版的机器学习模型;2010年之后,移动终端上开始配置多核处理器CPU、GPU;2017年,苹果、华为海思、高通、联发科等芯片厂商陆续推出NPU、AIP和APU等适合机器学习和深度学习任务的专用AI加速硬件单元[4-6],越来越多的AI


本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场,不承担相关法律责任。如若转载,请注明出处。 如若内容造成侵权/违法违规/事实不符,请点击【内容举报】进行投诉反馈!

相关文章

立即
投稿

微信公众账号

微信扫一扫加关注

返回
顶部