您的位置: 专家智库 > >

国家自然科学基金(61303108)

作品数:15 被引量:49H指数:4
相关作者:朱斐刘全凌兴宏伏玉琛钟珊更多>>
相关机构:苏州大学常熟理工学院吉林大学更多>>
发文基金:国家自然科学基金江苏省高校自然科学研究项目苏州市科技计划项目(应用基础研究计划)更多>>
相关领域:自动化与计算机技术更多>>

文献类型

  • 14篇中文期刊文章

领域

  • 14篇自动化与计算...

主题

  • 4篇网络
  • 2篇马尔可夫
  • 2篇DEEP
  • 2篇Q
  • 2篇OPTION
  • 1篇电图
  • 1篇电子邮件
  • 1篇动态优先级
  • 1篇心电
  • 1篇心电图
  • 1篇心电图QRS...
  • 1篇行动者
  • 1篇异步
  • 1篇异构
  • 1篇优化算法
  • 1篇邮件
  • 1篇深度网
  • 1篇深度网络
  • 1篇神经网
  • 1篇神经网络

机构

  • 9篇苏州大学
  • 3篇常熟理工学院
  • 3篇吉林大学
  • 2篇国网江苏省电...
  • 1篇苏州科技学院
  • 1篇苏州农业职业...
  • 1篇江苏省计算机...

作者

  • 8篇朱斐
  • 6篇刘全
  • 3篇凌兴宏
  • 1篇龚声蓉
  • 1篇伏玉琛
  • 1篇章宗长
  • 1篇唐丽丽
  • 1篇黄蔚
  • 1篇傅启明
  • 1篇李杰
  • 1篇钟珊

传媒

  • 3篇计算机学报
  • 2篇Fronti...
  • 1篇计算机研究与...
  • 1篇南京大学学报...
  • 1篇软件学报
  • 1篇计算机与现代...
  • 1篇计算技术与自...
  • 1篇新疆大学学报...
  • 1篇郑州大学学报...
  • 1篇计算机技术与...
  • 1篇IEEE/C...

年份

  • 1篇2023
  • 3篇2022
  • 3篇2021
  • 3篇2020
  • 1篇2019
  • 1篇2018
  • 1篇2016
  • 1篇2015
15 条 记 录,以下是 1-10
排序方式:
基于动态优先级的奖励优化模型被引量:1
2022年
传统的约束马尔可夫决策过程(constrained Markov decision process,CMDP)模型用来解决多目标决策的困难,但该模型缺乏通用性并且只适用于离散环境。为了解决这一问题,提出一种基于CMDP的改进算法CRODP,与强化学习(reinforcement learning,RL)算法结合,将带约束问题建模为拉格朗日公式,其中包含着深度强化学习的策略参数。然后进一步推导出模型参数的更新公式,并将其作为深度强化学习神经网络的损失函数。模型在学习过程中动态调整约束与主要目标之间的权重以确保最终策略符合给定的约束。在若干机器人平台上与基准的深度强化学习算法进行比较,显示本算法得出的最优策略能够更好地满足相应约束。
赵沛尧黄蔚
关键词:动态优先级
Hierarchical Reinforcement Learning With Automatic Sub-Goal Identification被引量:1
2021年
In reinforcement learning an agent may explore ineffectively when dealing with sparse reward tasks where finding a reward point is difficult.To solve the problem,we propose an algorithm called hierarchical deep reinforcement learning with automatic sub-goal identification via computer vision(HADS)which takes advantage of hierarchical reinforcement learning to alleviate the sparse reward problem and improve efficiency of exploration by utilizing a sub-goal mechanism.HADS uses a computer vision method to identify sub-goals automatically for hierarchical deep reinforcement learning.Due to the fact that not all sub-goal points are reachable,a mechanism is proposed to remove unreachable sub-goal points so as to further improve the performance of the algorithm.HADS involves contour recognition to identify sub-goals from the state image where some salient states in the state image may be recognized as sub-goals,while those that are not will be removed based on prior knowledge.Our experiments verified the effect of the algorithm.
Chenghao LiuFei ZhuQuan LiuYuchen Fu
关键词:OPTION
基于受限MDP的无模型安全强化学习方法被引量:1
2022年
很多强化学习方法较少地考虑决策的安全性,但研究领域和工业应用领域都要求的智能体所做决策是安全的.解决智能体决策安全问题的传统方法主要有改变目标函数、改变智能体的探索过程等,然而这些方法忽略了智能体遭受的损害和成本,因此不能有效地保障决策的安全性.在受限马尔可夫决策过程的基础上,通过对动作空间添加安全约束,设计了安全Sarsa(λ)方法和安全Sarsa方法.在求解过程中,不仅要求智能体得到最大的状态-动作值,还要求其满足安全约束的限制,从而获得安全的最优策略.由于传统的强化学习求解方法不再适用于求解带约束的安全Sarsa(λ)模型和安全Sarsa模型,为在满足约束条件下得到全局最优状态-动作值函数,提出了安全强化学习的求解模型.求解模型基于线性化多维约束,采用拉格朗日乘数法,在保证状态-动作值函数和约束函数具有可微性的前提下,将安全强化学习模型转化为凸模型,避免了在求解过程中陷入局部最优解的问题,提高了算法的求解效率和精确度.同时,给出了算法的可行性证明.最后,实验验证了算法的有效性.
朱斐葛洋洋凌兴宏凌兴宏
基于双重注意力机制的异步优势行动者评论家算法被引量:4
2020年
深度强化学习是目前机器学习领域发展最快的技术之一.传统的深度强化学习方法在处理高维度大状态的空间任务时,庞大的计算量导致其训练时间过长.虽然异步深度强化学习利用异步方法极大缩短了训练时间,但会忽略某些更具价值的图像区域和图像特征.针对上述问题,本文提出了一种基于双重注意力机制的异步优势行动者评论家算法.新算法利用特征注意力机制和视觉注意力机制来改进传统的异步深度强化学习模型.其中,特征注意力机制为卷积神经网络卷积后的所有特征图设置不同的权重,使得智能体聚焦于重要的图像特征;同时,视觉注意力机制为图像不同区域设置权重参数,权重高的区域表示该区域信息对智能体后续的策略学习有重要价值,帮助智能体更高效地学习到最优策略.新算法引入双重注意力机制,从表层和深层两个角度对图像进行编码表征,帮助智能体将聚焦点集中在重要的图像区域和图像特征上.最后,通过Atari 2600部分经典实验验证了基于双重注意力机制的异步优势行动者评论家算法的有效性.
凌兴宏李杰李杰刘全朱斐
一个基于异构正交结构的电力设备管理系统被引量:2
2016年
有效的电力设备管理是保证电力供应的重要基础。文中提出了一个多层CS软件体系结构与正交软件体系结构相结合的异构正交体系结构,在此基础上实现了一个电力设备智能管理系统,以设备管理作为主要线索树,以构建的电力设备管理的主要业务功能作为核心子线索树。系统与现有运行的各种电力设备管理系统保持兼容。通过将关联性强的数据优化部署,以及应用内存数据库,提高了系统性能;通过服务器集群和负载均衡,实现了数据实时更新和同步。
王芳严冬景栋盛朱斐
一种基于核的在线策略梯度算法
2018年
策略梯度算法是一种广义的策略迭代方法,由于其高效性得到了广泛的关注和研究.策略梯度算法包括策略评估与策略改进两个部分.传统的在线策略梯度方法在处理大规模问题时,表现不佳.为此,提出一种基于核的在线策略梯度算法,在强化学习经典算法评论家行动者的框架下,采用核方法近似表示值函数与策略函数,采用真在线时间差分算法评估策略的值函数,并根据真在线思想改进策略参数的更新方式.最后通过平衡杆问题和爬山小车实验验证算法的有效性.
唐丽丽朱海军朱斐
关键词:核方法
Improving deep reinforcement learning by safety guarding model via hazardous experience planning
2022年
1Introduction and main contributions Deep reinforcement learning that considers the advantages of both deep learning and reinforcement learning has achieved success in many fields[1],However,during the learning process,a possibility still exists that the agent fails in the task because of falling into hazardous states due to taking improper actions.
Pai PengFei ZhuXinghong LingPeiyao ZhaoQuan Liu
关键词:GUARDHAS
一种近似模型表示的启发式Dyna优化算法被引量:4
2015年
针对基于查询表的Dyna优化算法在大规模状态空间中收敛速度慢、环境模型难以表征以及对变化环境的学习滞后性等问题,提出一种新的基于近似模型表示的启发式Dyna优化算法(a heuristic Dyna optimization algorithm using approximate model representation,HDyna-AMR),其利用线性函数近似逼近Q值函数,采用梯度下降方法求解最优值函数.HDyna-AMR算法可以分为学习阶段和规划阶段.在学习阶段,利用agent与环境的交互样本近似表示环境模型并记录特征出现频率;在规划阶段,基于近似环境模型进行值函数的规划学习,并根据模型逼近过程中记录的特征出现频率设定额外奖赏.从理论的角度证明了HDyna-AMR的收敛性.将算法用于扩展的Boyan chain问题和Mountain car问题.实验结果表明,HDyna-AMR在离散状态空间和连续状态空间问题中能学习到最优策略,同时与Dyna-LAPS(Dyna-style planning with linear approximation and prioritized sweeping)和Sarsa(λ)相比,HDyna-AMR具有收敛速度快以及对变化环境的近似模型修正及时的优点.
钟珊刘全傅启明章宗长朱斐龚声蓉
关键词:函数逼近
A stable actor-critic algorithm for solving robotic tasks with multiple constraints
2023年
1 Introduction.Deep reinforcement learning has achieved great success especially in game[1]and control areas.Unfortunately,for real world environments that involve more than one objectives.For example,an autonomous car should consider constraints such as the driving speed,energy efficiency,comfort and safety of the passengers[2,3].To solve the problems,Constrained Markov Decision Process(CMDP)was proposed to model tasks with constraints[4,5].
Peiyao ZHAOFei ZHUQuan LIUXinghong LING
关键词:CONSTRAINTSDEEPTASKS
基于深度Q网络的垃圾邮件文本分类方法被引量:1
2020年
电子邮件广泛应用于人们的工作生活中。然而,充斥着虚假信息、恶意软件和营销广告等内容的垃圾邮件也以电子邮件为载体进行传播。这不仅给人们带来不便,而且也占用和耗费大量的网络资源,甚至严重地威胁信息安全。因此,有效地识别、过滤垃圾邮件是一项重要的工作。目前,垃圾邮件过滤方法主要包括基于邮件来源的识别和基于内容的识别,但大部分方法效果不佳且效率不高,并且需要耗费大量的人力标注特征,也跟不上垃圾邮件内容和形式等的改变。近年来,有研究人员将深度强化学习用在自然语言处理上并取得了重大的成果,鉴于此,本文提出基于深度Q网络的垃圾邮件文本分类方法。该方法在对邮件文本进行预处理、分词以及用Word2vec模型得到词向量的基础上用深度Q网络对垃圾邮件进行过滤,充分利用Word2vec中的CBOW模型得到邮件文本中的每个分词对应的词向量,直接用深度Q网络对得到的词向量集进行处理,无需提取邮件的特征,避免了由于特征提取的偏差带来的负面影响,提高了垃圾邮件过滤的效率和精确率。实验结果验证了本文方法的有效性。
景栋盛薛劲松冯仁君
关键词:电子邮件文本分类
共2页<12>
聚类工具0