微芯学堂第四十六讲:模型压缩真的能提高能效吗?
钱崇斌 2024-10-18 211

题目:模型压缩真的能提高能效吗?

时间:2024年10月21日(周一)晚上19:00-20:00

腾讯会议ID:287-690-497

主讲人:周天异


 

  主讲人简介:

周天异博士,毕业于新加坡南洋理工大学,现为新加坡前沿人工智能中心副主任(Deputy Director)以及首席研究员(Principal Scientist)。周天异博士主持多项新加坡重点研发项目,并且已在机器学习、人工智能、信息安全等领域核心期刊(中科院一区)和国际会议(CCF A类)上发表论文100余篇。此外,周博士担任CCF A类期刊AIJ及IEEE Transactions等国际重要SCI期刊的副主编/常任编委;担任多个国际顶级学术会议NeurIPS、ICML、ICLR、AAAI、IJCAI等国际顶级会议领域主席(Area Chair);获得IJCAI、ECCV、ACML等多个国际顶级/重要学术会议及其专题报告会最佳论文奖,被斯坦福大学评为世界前2%的科学家。

讲座内容:

边缘设备要求低能耗、低成本和小型化。为了在边缘设备上高效部署卷积神经网络(CNN)模型,能量感知的模型压缩变得尤为重要。然而,现有的研究并未很好地解决这个问题,因为它们缺乏对硬件架构中数据流类型多样性的考虑。在本次讲座中,我将介绍我们最近的工作——EDCompress,一种适用于多种数据流的能量感知模型压缩方法。它能够有效降低不同数据流类型的各种边缘设备的能耗。鉴于模型压缩过程的本质,我们将优化过程重新表述为一个多步骤问题,并通过强化学习算法来解决它。实验结果表明,EDCompress在VGG-16、MobileNet和LeNet-5网络上分别提升了20倍、17倍和37倍的能效,且精度损失可以忽略不计。此外,EDCompress还可以为特定神经网络找到在能耗方面的最优数据流类型,从而指导CNN模型在硬件系统上的部署。