【24h】

Comparing Decentralized Ongoing Task Allocation

机译:比较分散的正在进行的任务分配

获取原文

摘要

Real-world domains can often benefit from adaptable decentralized task allocation through emergent specialization of large groups of agents. Agents working within a shared environment can use environmental cues as a means of indirect coordination to maximize performance. We compare how groups of homogeneous agents fulfill the demands of a set of “ongoing” dynamic tasks over time, when employing Response Threshold Reinforcement, Ant Colony Optimization, or Linear Reward-Penalty Learning Automata. Results show that efficient, stable, and adaptable task allocation for large teams choosing from large sets of always-available tasks is possible, but excess and deficit workforce can present some performance challenges.
机译:现实世界领域通常可以通过新的大群代理商的专业化受益于适应的分散任务分配。 在共享环境中工作的代理可以使用环境提示作为间接协调的手段,以最大限度地提高性能。 我们比较各自的均匀代理在采用响应门槛强化,蚁群优化或线性奖励罚款学习自动机时,均匀的代理群体如何满足一组“正在进行的”动态任务的需求。 结果表明,从大型始终可用任务中选择的大型团队的高效,稳定和适应性的任务分配是可能的,但过剩和缺陷劳动力可以呈现一些性能挑战。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号