您现在的位置: 首页> 研究主题> 模型压缩

模型压缩

模型压缩的相关文献在2004年到2023年内共计596篇,主要集中在自动化技术、计算机技术、无线电电子学、电信技术、农业基础科学 等领域,其中期刊论文194篇、会议论文4篇、专利文献291818篇;相关期刊123种,包括计算机工程、计算机工程与设计、计算机工程与应用等; 相关会议4种,包括第九届全国人机语言通讯学术会议、第十三届全国混凝土及预应力混凝土学术交流会、香山科学会议第S42次学术会议等;模型压缩的相关文献由1791位作者贡献,包括王炜、刘杉、蒋薇等。

模型压缩—发文量

期刊论文>

论文:194 占比:0.07%

会议论文>

论文:4 占比:0.00%

专利文献>

论文:291818 占比:99.93%

总计:292016篇

模型压缩—发文趋势图

模型压缩

-研究学者

  • 王炜
  • 刘杉
  • 蒋薇
  • 杨强
  • 林福辉
  • 赵晓辉
  • 刘威
  • 刘洋
  • 徐倩
  • 江文斐
  • 期刊论文
  • 会议论文
  • 专利文献

搜索

排序:

年份

作者

    • 张勇; 郭永存; 陈伟; 王爽; 程刚
    • 摘要: 针对传统轻量型卷积神经网络模型复杂度高,移动端识别速度慢,小样本数据集上训练、识别效果差的等问题,提出一种高效的改进后的移动端煤矸识别方法;分析卷积神经网络模型轻量化的方法,并从注意力机制、激活函数和分类头3个方面对MobileNetv3网络进行改进,通过模型量化压缩网络在移动端部署模型,分析改进网络量化前、后的空间存储容量,浮点运算次数,推理时间和识别准确率;在移动端煤矸识别实验装置中训练、部署和测试模型的识别效果。结果表明:改进后网络经过20次的训练后模型即收敛,收敛速度较快,训练和验证准确率均大于99%;改进后模型经量化压缩后模型存储容量较小,仅为原网络的24.64%,模型复杂度大幅度下降;移动端推理时间仅为77 ms,识别准确率达到99.7%;利用实验装置实时采集的煤和矸石图像的识别效果较好,识别方法可靠。
    • 陶英杰; 张维纬; 马昕; 周密
    • 摘要: 提出一种将航拍车辆视频预处理与轻量化目标检测模型结合的级联方式.首先,针对无人机拍摄的车辆视频数据大量冗余的问题,在边缘设备设置一个两级过滤器,通过帧的像素级及结构性差异过滤大量冗余帧,从而大幅减少传输到后端的检测模型的帧数;其次,针对高精度目标检测模型时延高的问题,采用通道剪枝与层剪枝结合的方法压缩YOLOv3模型并部署在PC端,实现时延和精度的均衡.实验结果表明:两级过滤器能够有效过滤90%以上的冗余帧数,相较于原模型,压缩模型在精度仅下降2%左右的情况下,检测速度提高78.3%,达到36.9帧·s-1.
    • 黄震华; 杨顺志; 林威; 倪娟; 孙圣力; 陈运文; 汤庸
    • 摘要: 高性能的深度学习网络通常是计算型和参数密集型的,难以应用于资源受限的边缘设备.为了能够在低资源设备上运行深度学习模型,需要研发高效的小规模网络.知识蒸馏是获取高效小规模网络的一种新兴方法,其主要思想是将学习能力强的复杂教师模型中的“知识”迁移到简单的学生模型中.同时,它通过神经网络的互学习、自学习等优化策略和无标签、跨模态等数据资源对模型的性能增强也具有显著的效果.基于在模型压缩和模型增强上的优越特性,知识蒸馏已成为深度学习领域的一个研究热点和重点.本文从基础知识,理论方法和应用等方面对近些年知识蒸馏的研究展开全面的调查,具体包含以下内容:(1)回顾了知识蒸馏的背景知识,包括它的由来和核心思想;(2)解释知识蒸馏的作用机制;(3)归纳知识蒸馏中知识的不同形式,分为输出特征知识、中间特征知识、关系特征知识和结构特征知识;(4)详细分析和对比了知识蒸馏的各种关键方法,包括知识合并、多教师学习、教师助理、跨模态蒸馏、相互蒸馏、终身蒸馏以及自蒸馏;(5)介绍知识蒸馏与其它技术融合的相关方法,包括生成对抗网络、神经架构搜索、强化学习、图卷积、其它压缩技术、自动编码器、集成学习以及联邦学习;(6)对知识蒸馏在多个不同领域下的应用场景进行了详细的阐述;(7)讨论了知识蒸馏存在的挑战和未来的研究方向.
    • 邱鑫源; 叶泽聪; 崔翛龙; 高志强
    • 摘要: 为了解决数据共享需求与隐私保护要求之间不可调和的矛盾,联邦学习应运而生。联邦学习作为一种分布式机器学习,其中的参与方与中央服务器之间需要不断交换大量模型参数,而这造成了较大通信开销;同时,联邦学习越来越多地部署在通信带宽有限、电量有限的移动设备上,而有限的网络带宽和激增的客户端数量会使通信瓶颈加剧。针对联邦学习的通信瓶颈问题,首先分析联邦学习的基本工作流程;然后从方法论的角度出发,详细介绍基于降低模型更新频率、模型压缩、客户端选择的三类主流方法和模型划分等特殊方法,并对具体优化方案进行深入的对比分析;最后,对联邦学习通信开销技术研究的发展趋势进行了总结和展望。
    • 张国鹏; 陈学斌; 马征
    • 摘要: 利用卷积神经网络对物体进行目标检测,准确度可获得较大幅度提升,因此研究如何有效利用卷积神经网络进行目标检测具有重要价值。知识蒸馏是模型压缩与加速的代表类型,可将大网络学到的知识传递给小网络,使小网络获得接近大网络的精度。首先,论述目标检测研究前景及现阶段遇到的一些困难,探讨基于知识蒸馏方法解决该问题的可能性,引入知识蒸馏方法不仅可以简化网络,而且能节省计算能力及资源空间;其次,分别介绍知识蒸馏的基本结构、研究过程与进展;最后,对典型的目标检测算法进行对比,并分析不同蒸馏算法改进后的效果。
    • 董燕; 李环宇; 李卫杰; 李春雷; 刘洲峰
    • 摘要: 现有基于深度学习的种子分级分选方法已取得了理想的识别效果,但由于分选方法的性能依赖于模型的宽度和深度,导致模型参数量显著增加,使其难以部署在实际应用中资源受限的边缘设备上。为此,提出了一种通道和卷积层联合剪枝的深度模型压缩方法,在通道剪枝阶段,将稀疏正则化训练的BN层参数作为衡量通道重要性的指标,在不损失模型精度的前提下,实现最大限度的通道剪枝压缩。然后提出基于线性探针的层剪枝方法,在压缩模型的同时减少内存访问,从而提升模型推理速度。最后采用知识蒸馏技术对剪枝网络进行知识迁移,补偿网络因剪枝而造成的精度损失。结果表明,在红芸豆和玉米种子数据集上所提出的方法使模型计算量减少86.55%和91.55%情况下,分别实现了实际推理速度2.1倍和2.8倍的提升,且仍保持较好的识别准确度(97.38%和96.56%),为模型在实际种子分选系统的部署提供技术支撑。
    • 孔维刚; 李文婧; 王秋艳; 曹鹏程; 宋庆增
    • 摘要: 在嵌入式设备上进行目标检测时易受能耗和功耗等限制,使得传统目标检测算法效果不佳。为此,对YOLOv4算法进行优化,设计YOLOv4-Mini网络结构,将其特征提取网络由CSPDarkNet53改为MobileNetv3-large并进行INT8量化处理,其中网络结构利用PW和DW卷积操作代替传统卷积操作以大幅减少计算量。采用SE模块为通道施加注意力机制,激活函数层运用h-swish非线性激活函数,在保证精度的情况下降低网络计算量。同时,通过量化感知训练将权重转为INT8类型,以实现模型轻量化,进一步降低网络参数量和计算量,从而在嵌入式设备上完成无人机数据集的目标检测任务。在NVIDIA Jetson Xavier NX设备上进行测试,结果显示,YOLOv4-MobileNetv3网络的mAP为34.3%,FPS为30,YOLOv4-Mini网络的mAP为32.5%,FPS为73,表明YOLOv4-Mini网络能够在低功耗、低能耗的嵌入式设备上完成目标实时检测任务。
    • 李祥宇; 任艳娜; 马新明; 席磊
    • 摘要: 目前,利用机器视觉进行小麦生育进程监测主要是通过人工来进行特征提取,存在客观性差、效率低等问题,为了解决该问题,把深度学习引入到小麦生育进程监测研究中。卷积神经网络作为深度学习中常用的算法被广泛应用于图像分类任务中,使用深层的特征提取网络能够自动识别和提取图像特征,但常规深度卷积网络带来的大量参数和计算开销使这些算法难以应用到对存储空间和参数量有一定限制的嵌入式设备中。为此提出将知识蒸馏方法用于目标检测网络的特征提取网络,以提升浅层特征提取网络的性能,在降低模型的计算量和模型大小的同时尽可能地保证识别结果的准确性。通过使用ResNet50、VGG-16这2个不同教师网络分别指导学生模型MobileNet进行训练,试验结果表明,当ResNet50作为教师模型、MobileNet作为学生模型时识别效果最好,学生模型MobileNet的平均识别准确率达到了97.3%,模型大小压缩为仅19.7 MB,相比于ResNet50缩小了88.9%,通过知识蒸馏的方法,使得到的模型能够在提高准确率的情况下还能减少网络模型的参数量和模型运行时间的消耗,大幅降低部署模型的成本,可以为田间小麦智慧化生产提供技术支撑。
    • 巩杰; 赵烁; 何虎; 邓宁
    • 摘要: 深度卷积神经网络(CNN)模型中卷积层和全连接层包含大量卷积操作,导致网络规模、参数量和计算量大幅增加,部署于CPU/GPU平台时存在并行计算性能差和不适用于移动设备环境的问题,需要对卷积参数做量化处理并结合硬件进行加速设计。现场可编程门阵列(FPGA)可满足CNN并行计算和低功耗的需求,并具有高度的灵活性,因此,基于FPGA设计CNN量化方法及其加速系统。提出一种通用的动态定点量化方法,同时对网络的各个层级进行不同精度的量化,以减少网络准确率损失和网络参数的存储需求。在此基础上,针对量化后的CNN设计专用加速器及其片上系统,加速网络的前向推理计算。使用ImageNet ILSVRC2012数据集,基于VGG-16与ResNet-50网络对所设计的量化方法和加速系统进行性能验证。实验结果显示,量化后VGG-16与ResNet-50的网络规模仅为原来的13.8%和24.8%,而Top-1准确率损失均在1%以内,表明量化方法效果显著,同时,加速系统在运行VGG-16时,加速效果优于其他3种FPGA实现的加速系统,峰值性能达到614.4 GOPs,最高提升4.5倍,能耗比达到113.99 GOPs/W,最高提升4.7倍。
    • 陈前; 王玮
    • 摘要: 针对大体量项目建设周期长、规模大,设计产生模型体量大和种类繁多,传统的数据交换传输方式都存在各自无可避免的缺点,需要占用较大硬件资源的局面,从数据存储优化、模型压缩、模型显示优化显示3个方面介绍模型轻量化关键技术。研究表明,基于三角网格存储、Zstd压缩算法、网格局部重建显示优化可在保留三维模型基本信息及精度的前提下,将其进行高效的轻量化处理,为基于BIM平台的大体量总包项目模型轻量化提供技术参考和实践经验。
  • 查看更多

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号