肖秀春
- 作品数:25 被引量:94H指数:7
- 供职机构:广东海洋大学信息学院更多>>
- 发文基金:国家自然科学基金国家重点实验室开放基金国家现代农业产业技术体系建设项目更多>>
- 相关领域:自动化与计算机技术轻工技术与工程电气工程电子电信更多>>
- MISO多元广义多项式神经网络及其权值直接求解被引量:7
- 2009年
- 基于多元函数逼近理论,构建一种M ISO(Mu ltip le-Input,S ingle-Output)多元广义多项式神经网络。依据最小二乘原理,推导出基于伪逆的最优权值一步计算公式———简称为权值直接确定法;在此基础上,提出基于指数增长和折半删减搜索策略的隐神经元数自适应增删搜索算法。该新型神经网络具有结构简单的优点,其权值直接确定法、隐神经元增删算法可以避免冗长的迭代计算、局部极小点和学习率难选取等问题,同时解决了传统BP神经网络难以确定隐神经元数这一难题。仿真实验显示其具有训练速度快、逼近精度高和良好的去噪特性等特点。
- 肖秀春张雨浓姜孝华
- 关键词:权值直接确定
- 权值可直接算出的Legendre神经网络之隐节点数自动确定被引量:3
- 2009年
- 隐神经元数目的确定在神经网络学习过程中有着重要的意义.然而,目前,还没有相应的确定性理论指导隐神经元数的设计.针对Legendre前向神经网络,在基于伪逆的权值直接确定法的基础上构造出一种神经网络隐节点数自动确定的算法.仿真结果显示该隐节点数自动确定算法能较快地找到最简化结构Legendre前向神经网络的隐节点数.
- 张雨浓刘巍蔡炳煌肖秀春
- 关键词:权值直接确定伪逆
- 一种基函数神经网络最优隐神经元数目快速确定算法被引量:4
- 2010年
- 以线性无关的基函数作为隐层神经元的激励函数,构建了一类基函数神经网络,且推导出该类神经网络的学习算法;在此基础上,设计了一种基于指数增长和折半删减的快速最小隐神经元数目确定算法.仿真实验表明,此算法能自适应地、快速有效地确定网络最小隐层神经元数目.
- 肖秀春姜孝华张雨浓
- 关键词:神经网络
- 第二类Chebyshev前向神经网络权值直接确定及结构自适应确定被引量:7
- 2009年
- 为克服BP神经网络模型及其学习算法中的固有缺陷,构造了第二类Chebyshev前向神经网络模型,提出该神经网络模型权值直接确定法和结构自适应确定法.理论分析及仿真实验均表明,该系统弥补了BP神经网络的某些固有缺陷.相比同构型BP神经网络,其计算速度和工作精度均有大幅提高.
- 肖秀春张雨浓姜孝华邹阿金
- 关键词:神经网络正交多项式权值直接确定网络结构自适应
- 基于次序统计量像素灰度相似度的图像双边滤波被引量:8
- 2011年
- 针对一般双边滤波器定义中的像素灰度相似度函数易受图像噪声影响,不能很好地表征像素之间的实际相似性的问题,设计了一个基于次序统计量的像素灰度相似度函数.基于图像中相邻像素之间的相关性,可近似地将某像素的1环邻域所有像素的灰度视为该像素灰度的n(n≤9)次观测值,并定义为n-次序统计量.依据两像素灰度的n-次序统计量的欧氏距离定义它们的灰度相似度.该相似度函数结合了像素1环邻域灰度分布的统计属性,能较好地抑制噪声的影响.仿真实验验证了所提出基于次序统计量像素灰度相似度的双边滤波算法具有良好的滤波特性.
- 肖秀春彭群生卢晓敏王章野张雨浓姜孝华
- 关键词:次序统计量双边滤波相似度函数图像去噪
- Padé有理式神经网络及其权值直接确定法被引量:1
- 2009年
- 根据Pad近似理论,构造出一类前向有理式神经网络.该网络采用四层结构,其中第一层(输入层)和第三层采用线性激励函数,第二层采用幂激励函数,第四层(输出层)采用分数函数(或称除法函数)作为激励函数.依据梯度下降法思想,推导了其权值修正的迭代公式.针对迭代方法收敛速度慢、易陷入局部极小点等缺点,进一步推导出了基于伪逆的权值直接确定方法,该方法避免了冗长的迭代过程.仿真和预测结果均表明Pad有理式神经网络及其权值直接确定法具有较好的计算速度和更高的逼近与预测精度.
- 张雨浓肖秀春旷章辉
- 关键词:权值修正权值直接确定法
- 人工神经网络在食品生物工程中的应用被引量:7
- 2012年
- 简述了人工神经网络的基本原理与使用方法,并介绍了其在食品微生物发酵、食品酶工程、食品生物活性物质等食品生物工程领域的研究进展,旨在为人工神经网络在食品工业中的更广泛应用提供一定的理论基础依据。
- 郑惠娜章超桦秦小明肖秀春
- 关键词:人工神经网络食品生物工程
- 样条神经网络的权值直接确定法被引量:6
- 2009年
- 根据样条逼近理论和神经网络原理构造了一种样条神经网络模型,以一组样条基函数作为隐神经元的激励函数。依据误差回传(BP)思想推导出该网络模型的权值修正迭代公式,利用该公式迭代训练可得到该网络的最优权值。而对于构造的具有特定网络结构的样条神经网络,依据伪逆思想提出了一种直接计算权值的方法,从而避免冗长的迭代训练过程。仿真结果表明该权值直接确定法不仅能一步确定权值从而获得更快的运算速度,而且能达到更高的计算精度。
- 张雨浓杨逸文肖秀春邹阿金李巍
- 关键词:样条函数神经网络权值直接确定伪逆
- Chebyshev神经网络的Levenbers-Marquardt算法被引量:3
- 2009年
- 基于函数逼近理论,构建了一种神经网络模型,该神经网络采用正交Chebyshev多项式作为隐层激励函数。在此基础上,推导了Chebyshev神经网络的Levenberg-Marquardt学习算法。理论分析及仿真实验表明,该神经网络能够很好地学习样本数据中的不同模式,具有较快训练速度和较高的计算精度。
- 陈柏桃肖秀春姜孝华
- 关键词:神经网络LEVENBERG-MARQUARDT算法
- 基函数神经网络逼近能力探讨及全局收敛性分析被引量:7
- 2009年
- 构建一类新型基函数神经网络。依据梯度下降法思想,给出该神经网络的权值迭代公式,证明迭代序列能全局收敛到网络的最优权值,并由此推导出基于伪逆的最优权值一步计算公式——简称为权值直接确定法。理论分析表明,该新型神经网络具有最佳均方逼近能力和全局收敛性质,其权值直接确定法避免了冗长迭代计算、易陷于局部极小点、学习率难选取等传统BP神经网络难以解决的难题,仿真验证显示其相对BP神经网络的各种改进算法具有运算速度快、计算精度高等优势,且对于噪声有良好的滤除特性。
- 肖秀春张雨浓姜孝华彭啸亚
- 关键词:基函数神经网络权值直接确定全局收敛性