法律状态公告日
法律状态信息
法律状态
2022-08-19
实质审查的生效 IPC(主分类):G06T 9/00 专利申请号:2022104981434 申请日:20220509
实质审查的生效
技术领域
本发明涉及数据压缩技术领域,具体涉及一种可变压缩率的目标数据压缩方法。
背景技术
随着信息通信技术的发展,全球大数据储量呈爆炸式增长,面对如此庞大的数据量,如果不作处理,就需要庞大的存储设备来保存这些数据,这将产生巨大的存储成本,因此我们需要数据压缩技术对数据进行压缩和处理,减少数据量,节约数据维护的人力与物力,还要保证解压缩后得到数据的误差在需求范围内。
传统的压缩方法,对图像、语音和数据等信息都有较大的主观性,解压缩后得到的误差会比较大,为此,本发明提出一种可变压缩率的目标数据压缩方法。
发明内容
为解决上述问题,本发明提出了一种可变压缩率的算法,并在反向传播过程用产生的误差直接调节参数,并在一次运行过程中,可以得到不同压缩率下的误差,在误差允许的范围内,选择最大的压缩率,也可同时调整学习率,使误差达到稳定需要的循环次数变小,提高运行速度,从而得到最合适的压缩率和学习率。
本发明提供了如下的技术方案。
一种可变压缩率的目标数据压缩方法,包括以下步骤:
获取目标数据X;所述目标数据包括:图像数据或语音数据;
将目标数据X输入到自编码器中的编码层,初始化权重和偏置,输出数据Z;
将数据Z输入到自编码器中的隐藏层,通过激活函数Sigmoid进行处理,获得数据H;
初始化输出权重和偏置,数据H输入到解码层中,输出数据Y;通过激活函数Sigmoid处理获得解码后的输出数据A;
将数据A和目标数据X输入到均方误差函数中,得到误差;
采用梯度下降法反向传播调节权重和偏置,在预设目标压缩率范围内循环迭代直至误差最小,输出压缩率以及目标压缩数据。
优选地,还包括:
确定误差允许范围;
在采用梯度下降法反向传播调节权重和偏置的同时,调节学习速度,在误差允许范围内,迭代输出最优压缩率与学习率,并输出此时的压缩数据。
优选地,所述数据Z:
Z=w
式中,w
优选地,所述隐藏层的维度为h,h 优选地,所述数据H:
式中,Z为数据Z。 优选地,所述数据Y: Y=w 式中,w 优选地,所述目标数据为图像数据时,将图像数据转化为灰度图,提取灰度图的像素点以矩阵形式保存为目标数据X。 本发明的有益效果: 本文提出了一种可变压缩率的算法,并在反向传播过程用产生的误差直接调节参数,并在一次运行过程中,可以得到不同压缩率下的误差,在误差允许的范围内,选择最大的压缩率,也可同时调整学习率,使误差达到稳定需要的循环次数变小,提高运行速度,从而得到最合适的压缩率和学习率。 附图说明 图1是本发明实施例的可变压缩率的目标数据压缩方法的流程图; 图2是本发明实施例图片数据压缩时,隐藏层为50和70,学习率为0.1的迭代曲线图; 图3是本发明实施例图片数据压缩时,隐藏层为50和70,学习率为0.15的迭代曲线图; 图4是本发明实施例图片数据压缩时,隐藏层为150和100,学习率为0.1的迭代曲线图。 具体实施方式 为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。 实施例1 本发明的一种可变压缩率的目标数据压缩方法。如图1-4所示: S1:确定目标需求; S2:提取信息源的数据信息,将数据信息转化为目标数据X;所述信息源包括图像、语音和数据; S3:将目标数据X输入到自编码器中的编码层,初始化权重和偏置,输出数据Z; S4:将数据Z输入到隐藏层中,通过激活函数Sigmoid进行处理,获得数据H; S5:初始化输出权重和偏置,数据H输入到解码层中,输出数据Y;通过激活函数Sigmoid处理获得解码后的输出数据A; S6:将数据A和目标数据X输入到均方误差函数中,得到误差; S7:在采用梯度下降法反向传播调节权重和偏置的同时,改变压缩率或改变学习率或同时进行改变得到不同的输出结果,根据目标需求,选择合适的方法得到最优参数。 本实施例中, 以图片为例,输入一张彩色图片,将其转换为灰度图后提取像素点,以像素点矩阵为输入数据。 输入数据矩阵(225*315),将数据在隐藏层压缩后再进行解码恢复,得到误差,使用梯度下降法反向传播,通过不断调整权重与偏置,循环迭代使误差变小,得到理想的压缩率和学习率改变压缩率。 ①如图2所示,隐藏层的大小:深色线50,浅色线70,此时学习率0.1隐藏层为50时(压缩率约为77.8%),循环迭代稳定后误差大小0.05870757714136944 隐藏层为70时(压缩率约为68.9%),循环迭代稳定后误差大小0.03245032085732509 ②如图3所示,同①的条件下,改变学习率为0.15 隐藏层为50时,循环迭代稳定后误差大小0.05947263136777498 隐藏层为70时,循环迭代稳定后误差大小0.03088963658291494 ③如图4所示,改变隐藏层的大小,学习率0.1,深色线150,浅色线100 隐藏层为150时,循环迭代稳定后误差大小0.0001785693376355132 隐藏层为100时,循环迭代稳定后误差大小0.0015939471852396137 由上述实验结果和数据可得,当输入数据后,压缩率和学习率都可变,学习率和压缩率变大后,误差相应也会提高,所以在误差可接受范围内,尽可能提高学习率,增大压缩率,减少冗余数据,节省存储空间,或根据具体精度要求,选择合适的压缩率和下降速度。 以上仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
机译: 一种提高不相关底层网络上数据压缩率的方法
机译: 一种通过可变频率扫描进行数据压缩的方法,并为此通过合适的反应系统进行压缩
机译: 一种用于学习基于CNN的可变抗性对象检测器的方法和学习设备,该装置使用适用于用户要求的目标对象预测网络,例如关键性能指示器,以及使用此测试方法和测试设备。