张永全 作品数:9 被引量:32 H指数:4 供职机构: 中国计量学院 更多>> 发文基金: 国家自然科学基金 国家重点基础研究发展计划 中国博士后科学基金 更多>> 相关领域: 理学 自动化与计算机技术 更多>>
压缩回归学习算法的泛化界 被引量:1 2014年 研究了压缩最小平方回归学习算法的泛化性问题.利用随机投影、覆盖数等理论以及概率不等式得到了该学习算法的泛化误差上界.所获结果表明:压缩学习虽以增大逼近误差的方式降低样本误差,但其增量是可控的.此外,通过压缩学习,在一定程度上克服了学习过程中所出现的过拟合现象. 曹飞龙 戴腾辉 张永全关键词:压缩感知 误差界 基于神经网络的回归学习算法收敛性分析(英文) 被引量:2 2012年 本文利用最小二乘理论研究学习理论中的回归问题.其目的在于利用概率不等式与神经网络的逼近性质来分析回归学习算法的误差.结论表明,当回归函数满足一定的光滑性时,得到较为紧的上界且该上界与输入空间的维数无关. 张永全 曹飞龙 戴腾辉关键词:神经网络 覆盖数 收敛率 距离空间中的神经网络插值与逼近 被引量:6 2008年 已有的关于插值神经网络的研究大多是在欧氏空间中进行的,但实际应用中的许多问题往往需要用非欧氏尺度进行度量.本文研究一般距离空间中的神经网络插值与逼近问题,即先在距离空间中构造新的插值网络,然后在此基础上构造近似插值网络,最后研究近似插值网络对连续泛函的逼近. 曹飞龙 张永全关键词:神经网络 插值 连续泛函 神经网络逼近速度下界估计 被引量:4 2009年 文中研究一类多元周期Lebesgue平方可积函数SF_d与神经网络集合Π_(φ,n,d)=(?)之间偏差dist(SF_d,Π_(φ,n,d))的估计问题.特别地,利用Fourier变换、逼近论等方法给出dist(SF_d,Π_(φ,n,d))的下界估计,即dist(?).所获下界估计仅与神经网络隐层的神经元数目有关,与目标函数及输入的维数无关.该估计也进一步揭示了神经网络逼近速度与其隐层拓扑结构之间的关系. 曹飞龙 张永全 徐宗本关键词:神经网络 下界 高斯核正则化学习算法的泛化误差 2014年 对广义凸损失函数和变高斯核情形下正则化学习算法的泛化性能展开研究.其目标是给出学习算法泛化误差的一个较为满意上界.泛化误差可以利用正则误差和样本误差来测定.基于高斯核的特性,通过构构建一个径向基函数(简记为RBF)神经网络,给出了正则误差的上界估计,通过投影算子和再生高斯核希尔伯特空间的覆盖数给出样本误差的上界估计.所获结果表明,通过适当选取参数σ和λ,可以提高学习算法的泛化性能. 张永全 李有梅关键词:RBF神经网络 高斯核 泛化误差 构造前向神经网络逼近多项式函数 被引量:9 2007年 首先用构造性的方法证明:对于任意的 n 阶多元多项式函数,可以构造一个三层前向神经网络以任意精度逼近该多项式,所构造网络的隐层节点个数仅与多项式的维数 d 和阶数 n 有关.然后,我们给出实现这一逼近的具体算法.最后,给出两个算例进一步验证所得的理论结果.本文结果对神经网络逼近多元多项式函数的具体网络构造以及实现这一逼近的方法等问题具有指导意义. 曹飞龙 张永全 潘星关键词:神经网络 多元多项式 Cardaliguet-Eurrard型神经网络算子逼近 2008年 研究多维Cardaliguet-Eurrard型神经网络算子的逼近问题.分别给出该神经网络算子逼近连续函数与可导函数的速度估计,建立了Jackson型不等式. 张永全 曹飞龙 徐宗本关键词:神经网络 算子 多元回归学习算法收敛速度的估计 2011年 在许多应用中,回归函数的先验信息往往不能事先获取.因此,有必要利用有效的方法学习回归函数.本文研究学习理论中的回归问题,即研究多项式空间上具有最小二乘平方损失正则学习算法的收敛速度问题.主要目的在于分析学习理论中多维回归问题的泛化误差.利用逼近论中著名Jackson算子、覆盖数理论、集合的熵数以及有关概率不等式,得到学习算法收敛速度的上、下界估计.特别地,对于满足一定条件的多元光滑回归函数,除一个对数因子外,所获的收敛速度是最优的.本文结果对研究回归学习算法的收敛性、稳定性及复杂性等有着重要的意义. 徐宗本 张永全 曹飞龙关键词:收敛速度 覆盖数 单隐层神经网络与最佳多项式逼近 被引量:14 2007年 研究单隐层神经网络逼近问题.以最佳多项式逼近为度量,用构造性方法估计单隐层神经网络逼近连续函数的速度.所获结果表明:对定义在紧集上的任何连续函数,均可以构造一个单隐层神经网络逼近该函数,并且其逼近速度不超过该函数的最佳多项式逼近的二倍. 曹飞龙 张永全 张卫国