您的位置: 专家智库 > >

张永全

作品数:9 被引量:32H指数:4
供职机构:中国计量学院更多>>
发文基金:国家自然科学基金国家重点基础研究发展计划中国博士后科学基金更多>>
相关领域:理学自动化与计算机技术更多>>

文献类型

  • 9篇中文期刊文章

领域

  • 7篇理学
  • 2篇自动化与计算...

主题

  • 7篇神经网
  • 7篇神经网络
  • 4篇学习算法
  • 2篇隐层
  • 2篇泛化
  • 2篇覆盖数
  • 1篇多项式
  • 1篇多项式函数
  • 1篇多元多项式
  • 1篇压缩感知
  • 1篇英文
  • 1篇正则
  • 1篇正则化
  • 1篇收敛率
  • 1篇收敛速度
  • 1篇收敛性
  • 1篇收敛性分析
  • 1篇算子
  • 1篇算子逼近
  • 1篇拓扑

机构

  • 9篇中国计量学院
  • 4篇西安交通大学
  • 1篇华南理工大学

作者

  • 9篇张永全
  • 8篇曹飞龙
  • 3篇徐宗本
  • 2篇戴腾辉
  • 1篇张卫国
  • 1篇潘星
  • 1篇李有梅

传媒

  • 3篇数学学报(中...
  • 2篇数学物理学报...
  • 2篇中国科学:信...
  • 1篇模式识别与人...
  • 1篇工程数学学报

年份

  • 2篇2014
  • 1篇2012
  • 1篇2011
  • 1篇2009
  • 2篇2008
  • 2篇2007
9 条 记 录,以下是 1-9
排序方式:
压缩回归学习算法的泛化界被引量:1
2014年
研究了压缩最小平方回归学习算法的泛化性问题.利用随机投影、覆盖数等理论以及概率不等式得到了该学习算法的泛化误差上界.所获结果表明:压缩学习虽以增大逼近误差的方式降低样本误差,但其增量是可控的.此外,通过压缩学习,在一定程度上克服了学习过程中所出现的过拟合现象.
曹飞龙戴腾辉张永全
关键词:压缩感知误差界
基于神经网络的回归学习算法收敛性分析(英文)被引量:2
2012年
本文利用最小二乘理论研究学习理论中的回归问题.其目的在于利用概率不等式与神经网络的逼近性质来分析回归学习算法的误差.结论表明,当回归函数满足一定的光滑性时,得到较为紧的上界且该上界与输入空间的维数无关.
张永全曹飞龙戴腾辉
关键词:神经网络覆盖数收敛率
距离空间中的神经网络插值与逼近被引量:6
2008年
已有的关于插值神经网络的研究大多是在欧氏空间中进行的,但实际应用中的许多问题往往需要用非欧氏尺度进行度量.本文研究一般距离空间中的神经网络插值与逼近问题,即先在距离空间中构造新的插值网络,然后在此基础上构造近似插值网络,最后研究近似插值网络对连续泛函的逼近.
曹飞龙张永全
关键词:神经网络插值连续泛函
神经网络逼近速度下界估计被引量:4
2009年
文中研究一类多元周期Lebesgue平方可积函数SF_d与神经网络集合Π_(φ,n,d)=(?)之间偏差dist(SF_d,Π_(φ,n,d))的估计问题.特别地,利用Fourier变换、逼近论等方法给出dist(SF_d,Π_(φ,n,d))的下界估计,即dist(?).所获下界估计仅与神经网络隐层的神经元数目有关,与目标函数及输入的维数无关.该估计也进一步揭示了神经网络逼近速度与其隐层拓扑结构之间的关系.
曹飞龙张永全徐宗本
关键词:神经网络下界
高斯核正则化学习算法的泛化误差
2014年
对广义凸损失函数和变高斯核情形下正则化学习算法的泛化性能展开研究.其目标是给出学习算法泛化误差的一个较为满意上界.泛化误差可以利用正则误差和样本误差来测定.基于高斯核的特性,通过构构建一个径向基函数(简记为RBF)神经网络,给出了正则误差的上界估计,通过投影算子和再生高斯核希尔伯特空间的覆盖数给出样本误差的上界估计.所获结果表明,通过适当选取参数σ和λ,可以提高学习算法的泛化性能.
张永全李有梅
关键词:RBF神经网络高斯核泛化误差
构造前向神经网络逼近多项式函数被引量:9
2007年
首先用构造性的方法证明:对于任意的 n 阶多元多项式函数,可以构造一个三层前向神经网络以任意精度逼近该多项式,所构造网络的隐层节点个数仅与多项式的维数 d 和阶数 n 有关.然后,我们给出实现这一逼近的具体算法.最后,给出两个算例进一步验证所得的理论结果.本文结果对神经网络逼近多元多项式函数的具体网络构造以及实现这一逼近的方法等问题具有指导意义.
曹飞龙张永全潘星
关键词:神经网络多元多项式
Cardaliguet-Eurrard型神经网络算子逼近
2008年
研究多维Cardaliguet-Eurrard型神经网络算子的逼近问题.分别给出该神经网络算子逼近连续函数与可导函数的速度估计,建立了Jackson型不等式.
张永全曹飞龙徐宗本
关键词:神经网络算子
多元回归学习算法收敛速度的估计
2011年
在许多应用中,回归函数的先验信息往往不能事先获取.因此,有必要利用有效的方法学习回归函数.本文研究学习理论中的回归问题,即研究多项式空间上具有最小二乘平方损失正则学习算法的收敛速度问题.主要目的在于分析学习理论中多维回归问题的泛化误差.利用逼近论中著名Jackson算子、覆盖数理论、集合的熵数以及有关概率不等式,得到学习算法收敛速度的上、下界估计.特别地,对于满足一定条件的多元光滑回归函数,除一个对数因子外,所获的收敛速度是最优的.本文结果对研究回归学习算法的收敛性、稳定性及复杂性等有着重要的意义.
徐宗本张永全曹飞龙
关键词:收敛速度覆盖数
单隐层神经网络与最佳多项式逼近被引量:14
2007年
研究单隐层神经网络逼近问题.以最佳多项式逼近为度量,用构造性方法估计单隐层神经网络逼近连续函数的速度.所获结果表明:对定义在紧集上的任何连续函数,均可以构造一个单隐层神经网络逼近该函数,并且其逼近速度不超过该函数的最佳多项式逼近的二倍.
曹飞龙张永全张卫国
共1页<1>
聚类工具0