【24h】

Leveraging for Regression

机译:利用回归

获取原文
获取原文并翻译 | 示例

摘要

In this paper we examine master regression algorithms that leverage base regressors by iterative-ly calling them on modified samples. The most successful leveraging algorithm for classification is AdaBoost, an algorithm that requires only modest assumptions on the base learning method for its good theoretical bounds. We present three gradient descent leveraging algorithms for regression and prove AdaBoost-style bounds on their sample error using intuitive assumptions on the base learners. We derive bounds on the size of the master functions that lead to PAC-style bounds on the generalization error.
机译:在本文中,我们研究了通过在修改后的样本上迭代调用基本回归器的主回归算法。用于分类的最成功的杠杆算法是AdaBoost,该算法因其良好的理论界限而仅需对基础学习方法进行适度假设即可。我们提供了三种梯度下降杠杆算法进行回归,并使用基础学习者的直观假设证明了AdaBoost风格的样本误差边界。我们得出主函数大小的界限,从而导致泛化误差为PAC样式的界限。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号