首页> 中文学位 >基于卷积神经网络的压缩与硬件加速方法研究
【6h】

基于卷积神经网络的压缩与硬件加速方法研究

代理获取

目录

1 绪论

1.1课题研究的背景和意义

1.2研究现状

1.3论文主要工作及章节安排

2 卷积神经网络及YOLO简介

2.1 卷积神经网络

2.1.1 卷积神经网络的结构

2.1.2 权值共享

2.2 卷积神经网络的发展

2.3 YOLO简介

2.3.1YOLO V2

2.4 Tiny-yolo

3 Tiny-yolo网络压缩

3.1网络裁剪

3.1.1 初始网络训练

3.1.2 阈值获取

3.1.3 网络裁剪

3.1.4 稀疏网络重训练

3.2权值量化

4 硬件加速

4.1数据缓存优化

4.2结构优化

4.3卷积运算加速

5 压缩与硬件加速实现

5.1平台介绍

5.1.1 Darknet简介

5.1.2 HLS工具介绍

5.1.3 HLS设计流程

5.1.4 ZedBoard测试平台介绍

5.2网络裁剪与量化

5.3硬件加速实现

6 总结与展望

6.1总结

6.2展望

参考文献

附录

A.作者在攻读学位期间论文成果

B.作者在攻读学位期间实审的专利

C.学位论文数据集

致谢

声明

展开▼

摘要

卷积神经网络(Convolution Neural Network, CNN)在图像、语音、人脸识别等领域发展迅速,尤其在图像领域表现出色。现实中对传统算法的应用往往依托于体积小、功耗低的嵌入式平台,卷积神经网络的特点是参数庞大、网络模型复杂、卷积运算耗时过多,这使得卷积神经网络不易在嵌入式端流畅运行。本文针对卷积神经网络参数庞大、网络模型复杂的特点,提出网络裁剪和权值量化,对卷积神经网络进行压缩,同时针对卷积神经网络卷积运算耗时过多的特点,使用现场可编程门阵列(FPGA)对卷积过程进行加速。  本文研究的卷积神经网络模型为Tiny-yolo,首先,分析Tiny-yolo网络连接关系,对权值较小的连接进行裁剪,减少权值数量,实现对网络的压缩;裁剪后的权值矩阵采用稀疏化存储方式,减少网络模型对内存的占用;对稀疏网络进行重训练,达到压缩目的的同时,保证网络在裁剪前后识别精度不会出现大幅下降;其次,对权值进行量化,本文将Tiny-yolo原有数据类型进行量化,在保证精度误差范围内,进一步减小模型内存占用量和运算复杂度;最后,根据Tiny-yolo网络结构特点提出了深度并行-流水的FPGA加速优化方案,对数据缓存,以及卷积运算进行加速,最终实现Tiny-yolo网络在嵌入式端流畅运行。  通过实验验证,网络裁剪在保证网络识别精度的前提下,参数数量减少9成,网络模型占用内存由63.5MB变为4.55MB。量化实现4倍左右的压缩比率,网络精度有所损失,mAP下降2个百分点,但对最终检测结果影响不大。硬件加速优化,相比在最大频率为667MHZ的ARM Cortex-A9上运算实现了7倍左右的运算加速。

著录项

  • 作者

    吴海华;

  • 作者单位

    重庆大学;

  • 授予单位 重庆大学;
  • 学科 工程(电子与通信工程)
  • 授予学位 硕士
  • 导师姓名 黄智勇;
  • 年度 2019
  • 页码
  • 总页数
  • 原文格式 PDF
  • 正文语种 chi
  • 中图分类
  • 关键词

    神经网络,压缩,硬件加速,可编程门阵列;

相似文献

  • 中文文献
  • 外文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号