文档简介
提出了基于Q学习的角色值方法,避免了在比赛中由于机器人之间的频繁角色转换而造成的系统效率损失及系统不稳定。该方法完善了多智能体系统的整体调整方法,有效地解决了在实际系统设计和实现过程中遇到的问题。经FIRA仿真比赛检验,该方法是有效的,降低了机器人丢球、漏球、不作为的可能性,弥补了按区域分配固定角色的不足,有较好的实用性。关 键 词 多智能体系统; 强化学习; 机器人; 角色值Multi-Agent System(MAS)是由自主的Agent通过协作完成某些任务或达到某些目标的计算系统,它通过竞争或磋商等手段协调解决各Agent成员目标和行为之间的矛盾和冲突[1]。足球机器人是一个典型的多Agent系统,各个机器人之间协作的好坏是决定比赛胜负的关键之一。在机器人足球比赛过程中,由于两队的激烈争夺,球和双方队员的位置在不断变化。如果对球队中的每个队员安排固定的角色和固定的攻防区域,比赛中常会出现队员“不作为”的现象[2]。如某个队员在自己区域带球,一旦跨出指定区域,它不会“越权”,结果是丢下球不管;另一方面,即使球在它的附近,但还未进入它的区域,该队员也不会去抢球,往往会错失良机。此外,对于5VS5、11VSl1类型的比赛,由于是多个队员排兵布阵,除了要考虑对对方队员的避碰外,还必须考虑本队队员之间的避障;而且各个机器人的“体力”消耗不同(如RoboCup)中有体力模型,实物机器人存在电量消耗),不宜让某个机器人始终担当一个固定不变的角色。
评论
加载更多
推荐下载
查看更多
精选文集
相关视频
推荐帖子