国家自然科学基金(69985002)
- 作品数:28 被引量:455H指数:11
- 相关作者:洪炳镕韩学东洪炳熔孟伟朴松昊更多>>
- 相关机构:哈尔滨工业大学深圳信息职业技术学院哈尔滨理工大学更多>>
- 发文基金:国家自然科学基金国家高技术研究发展计划更多>>
- 相关领域:自动化与计算机技术更多>>
- 一种多机器人协作控制方法被引量:17
- 2004年
- 提出了一种基于Petri网模型的多个移动机器人协作控制方法 .该方法主要包括两个模块 :高层控制模块 (HLCM)和低层控制模块 (LLCM) .HLCM负责任务分配和再规划 ,LLCM实现单个机器人的控制逻辑 .利用可达树对Petri网模型中的死锁进行检测 ,并给出了消除死锁的方法 .仿真实验证明了该方法的有效性 .
- 孟伟洪炳镕韩学东
- 关键词:多机器人系统PETRI网模型死锁
- 实时动态环境下多智能体的路径搜索研究被引量:10
- 2004年
- 通过对实时动态环境下多智能体机器人足球中传球路线搜索的研究 ,提出了和双方队员控制区域有关的机动范围的概念及相应的计算方法 ,并用遗传算法解决了在搜索空间较大情况下的传球路线的搜索问题 .实验和比赛结果证明 ,该方法能有效的解决实时动态环境下机器人足球中传球路线搜索的问题 .
- 李建伟张凯王健洪炳镕杨艳
- 关键词:多智能体系统足球机器人遗传算法
- 冗余空间机器人最小姿态干扰运动控制
- 2009年
- 空间机器人(Space Robots,SR)机械手沿预定轨迹运动完成空间作业时会对卫星本体姿态产生干扰,影响正常通信和太阳能帆板定向,增加姿态控制燃料消耗。首先通过对SR非完整冗余(Nonholonomic Redundancy,NR)分析,求解不同作业任务SR逆运动学问题,提出对卫星本体不产生姿态干扰的固定姿态控制雅可比矩阵的灵活度准则;其次基于任务分层和NR控制方程,开发了最小姿态干扰运动控制算法;最后计算机仿真验证了算法的有效性。研究结果表明该算法可最小化机械手运动对卫星本体姿态干扰,可节省宝贵姿态控制燃料。
- 李华忠
- 关键词:空间机器人运动控制仿真
- 多机器人任意队形分布式控制研究被引量:33
- 2003年
- 本文针对多智能体协作完成特定任务时难以在全自主控制的前提下协作形成任意队形和队形向量不易确定的问题 ,通过由各智能体自主简单的确定自己的队形向量 ,从理论上扩展基于队形向量的队形控制原理以生成任意队形 ,改进机器人的运动方式以提高收敛速度 ,提出一种快速收敛的机器人部队任意队形分布式控制算法 .为了解决智能体机器人之间的冲突问题 ,提出了一个通信协调模型 .
- 韩学东洪炳熔孟伟
- 关键词:多机器人分布式控制智能体
- 基于虚拟力的混合感知网节点部署被引量:35
- 2007年
- 感知网一般是由静态的或移动的节点组成,为保证感知网的感知功能,节点应该有自部署和自修复能力.然而全部由移动传感器组成的感知网的成本太高,为保证感知网的覆盖功能和低成本,提出了一种在静态传感器节点中加入移动传感器节点的混合感知网形式.为了更好地部署这些节点,最大化覆盖待感知区域,提出了一种基于节点间虚拟力的移动节点部署方法,利用静态节点和移动节点以及移动节点之间的虚拟人工势场产生的作用力来控制移动节点的运动,使移动节点能够在较短的时间内,以较少的能量消耗到达自己合适的位置.在理论上分析了算法的可行性,用仿真实验验证了此算法的有效性,并和其他3种类似算法进行了性能比较.
- 周彤洪炳镕朴松昊
- 关键词:虚拟力多机器人
- 基于蒙特卡罗学习的多机器人自组织协作
- 2007年
- 强化学习是提高机器人完成任务效率的有效方法,目前比较流行的学习方法一般采用累积折扣回报方法,但平均值回报在某些方面更适于多机器人协作。累积折扣回报方法在机器人动作层次上可以提高性能,但在多机器人任务层次上却不会得到很好的协作效果,而采用平均回报值的方法,就可以改变这种状态。本文把基于平均值回报的蒙特卡罗学习应用于多机器人合作中,得到很好的学习效果,实际机器人实验结果表明,采用平均值回报的方法优于累积折扣回报方法。
- 周彤洪炳镕朴松昊周洪玉
- 关键词:多机器人Q学习
- 空间机器人连续运动轨迹控制建模和仿真研究被引量:8
- 2008年
- 基于地面机器人常用的D-H建模方法和空间机器人(SR)满足的动量守恒和角动量守恒原理,提出了SR连续运动轨迹控制建模算法.首先基于地面机器人雅可比矩阵的思想和D-H法,建立了适用于空间机器人的运动学模型;其次研究了空间机器人的广义雅可比矩阵计算及其连续运动轨迹控制的有效算法;最后通过计算机仿真验证了所提出算法的有效性.本文基于D-H方法的SR概念模型和运动学模型可推广到包含旋转关节和平移关节的树型结构链杆的任何SR.
- 李华忠梁永生洪炳熔
- 关键词:空间机器人运动学建模广义雅可比矩阵
- 多月球车定位/决策网络被引量:2
- 2004年
- 提出了多月球车协作的分布式定位 /决策网络 ,将模糊逻辑与强化学习相结合 ,完成月球车的行为决策实验 .仿真结果证明了该方法的有效性 .
- 孟伟洪炳镕韩学东
- 关键词:模糊逻辑
- 基于强化学习的多机器人协作被引量:4
- 2005年
- 提出了一种动态环境下多个机器人获取合作行为的强化学习方法,该方法采用基于瞬时奖励的Q-学习完成单个机器人的学习,并利用人工势场法的思想确定不同机器人的学习顺序,在此基础上采用交替学习来完成多机器人的学习过程。试验结果表明所提方法的可行性和有效性。
- 周浦城洪炳镕郭耸
- 关键词:多机器人系统机器人足球
- 基于场景匹配的移动机器人避障被引量:1
- 2004年
- 研究环境未知情况下移动机器人的避障问题,提出一种基于模糊场景匹配的移动机器人避障方法.该方法对多种传感器的信息进行融合,生成当前环境的场景并与场景库中的场景进行匹配,利用匹配结果并通过模糊控制器得到机器人的运动参数,对机器人的避障进行控制.实验结果表明了该方法的正确性和有效性.
- 孟伟洪炳镕韩学东
- 关键词:移动机器人避障传感器融合模糊控制