期刊文献+
共找到27篇文章
< 1 2 >
每页显示 20 50 100
Approximation problems in sigma-pi neural networks
1
作者 李纯明 陈天平 《Chinese Science Bulletin》 SCIE EI CAS 1996年第13期1072-1074,共3页
Let the function n: R^R→R be defined by Recently, approximating continuous function of several variables by the composition and superposition 9oπ of the function π and a function of one variable g is arousing great... Let the function n: R^R→R be defined by Recently, approximating continuous function of several variables by the composition and superposition 9oπ of the function π and a function of one variable g is arousing great attention due to its applications in artificial neural networks (cf. references 1—3). 展开更多
关键词 approximation THEORY sigma-pi neural networkS denseness.
在线阅读 下载PDF
The construction and approximation of feedforward neural network with hyperbolic tangent function 被引量:1
2
作者 CHEN Zhi-xiang CAO Fei-long 《Applied Mathematics(A Journal of Chinese Universities)》 SCIE CSCD 2015年第2期151-162,共12页
In this paper, we discuss some analytic properties of hyperbolic tangent function and estimate some approximation errors of neural network operators with the hyperbolic tan- gent activation function. Firstly, an equat... In this paper, we discuss some analytic properties of hyperbolic tangent function and estimate some approximation errors of neural network operators with the hyperbolic tan- gent activation function. Firstly, an equation of partitions of unity for the hyperbolic tangent function is given. Then, two kinds of quasi-interpolation type neural network operators are con- structed to approximate univariate and bivariate functions, respectively. Also, the errors of the approximation are estimated by means of the modulus of continuity of function. Moreover, for approximated functions with high order derivatives, the approximation errors of the constructed operators are estimated. 展开更多
关键词 Hyperbolic tangent function neural networks approximation modulus of continuity
在线阅读 下载PDF
The Rate of Approximation of Gaussian Radial Basis Neural Networks in Continuous Function Space 被引量:1
3
作者 Ting Fan XIE Fei Long CAO 《Acta Mathematica Sinica,English Series》 SCIE CSCD 2013年第2期295-302,共8页
There have been many studies on the dense theorem of approximation by radial basis feedforword neural networks, and some approximation problems by Gaussian radial basis feedforward neural networks (GRBFNs) in some s... There have been many studies on the dense theorem of approximation by radial basis feedforword neural networks, and some approximation problems by Gaussian radial basis feedforward neural networks (GRBFNs) in some special function space have also been investigated. This paper considers the approximation by the GRBFNs in continuous function space. It is proved that the rate of approximation by GRNFNs with nd neurons to any continuous function f defined on a compact subset K R^d can be controlled by w(f, n^-1/2), where w(f, t) is the modulus of continuity of the function f. 展开更多
关键词 Gaussian radial basis feedforward neural networks approximation rate of convergence modulus of continuity
原文传递
Approximation Problems in System Identification With Neural Networks 被引量:8
4
作者 陈天平 《Science China Mathematics》 SCIE 1994年第4期414-421,共8页
In this paper, the capability of neural networks and some approximation problens in system identification with neural networks are investigated. Some results are given: (i) For any function g ∈Llocp (R1) ∩S’ (R1) t... In this paper, the capability of neural networks and some approximation problens in system identification with neural networks are investigated. Some results are given: (i) For any function g ∈Llocp (R1) ∩S’ (R1) to be an Lp-Tauber-Wiener function, it is necessary and sufficient that g is not apolynomial; (ii) If g∈(Lp TW), then the set of is dense in Lp(K)’ (iii) It is proved that bycompositions of some functions of one variable, one can approximate continuous functional defined on compact Lp(K) and continuous operators from compact Lp1(K1) to LP2(K2). These results confirm the capability of neural networks in identifying dynamic systems. 展开更多
关键词 neural networks system identification Lp-approximation continuous FUNCTIONALS and oper- ators Tauber-Wiener functions.
原文传递
On Approximation by Neural Networks with Optimized Activation Functions and Fixed Weights
5
作者 Dansheng Yu Yunyou Qian Fengjun Li 《Analysis in Theory and Applications》 CSCD 2023年第1期93-104,共12页
Recently,Li[16]introduced three kinds of single-hidden layer feed-forward neural networks with optimized piecewise linear activation functions and fixed weights,and obtained the upper and lower bound estimations on th... Recently,Li[16]introduced three kinds of single-hidden layer feed-forward neural networks with optimized piecewise linear activation functions and fixed weights,and obtained the upper and lower bound estimations on the approximation accuracy of the FNNs,for continuous function defined on bounded intervals.In the present paper,we point out that there are some errors both in the definitions of the FNNs and in the proof of the upper estimations in[16].By using new methods,we also give right approximation rate estimations of the approximation by Li’s neural networks. 展开更多
关键词 approximation rate modulus of continuity modulus of smoothness neural network operators
原文传递
L^p(K)Approximation Problems in System Identification with RBF Neural Networks
6
作者 NAN Dong LONG Jin Ling 《Journal of Mathematical Research and Exposition》 CSCD 2009年第1期124-128,共5页
L^p approximation problems in system identification with RBF neural networks are investigated. It is proved that by superpositions of some functions of one variable in L^ploc(R), one can approximate continuous funct... L^p approximation problems in system identification with RBF neural networks are investigated. It is proved that by superpositions of some functions of one variable in L^ploc(R), one can approximate continuous functionals defined on a compact subset of L^P(K) and continuous operators from a compact subset of L^p1 (K1) to a compact subset of L^p2 (K2). These results show that if its activation function is in L^ploc(R) and is not an even polynomial, then this RBF neural networks can approximate the above systems with any accuracy. 展开更多
关键词 RBF neural networks system identification LP-approximation continuous functionals and operators.
在线阅读 下载PDF
关于Sigma-Pi神经网络中的逼近问题 被引量:2
7
作者 罗跃虎 沈世镒 《高校应用数学学报(A辑)》 CSCD 北大核心 2000年第1期107-112,共6页
研究R上不连续函数可作为Sigm a-Pi神经网络激励函数的条件.给出了R上局部黎曼可积函数可作为Sigm a-Pi神经网络激励函数的特征条件.本文的结果表明:局部黎曼可积函数作为Sigm a-Pi神经网络激励函数的特... 研究R上不连续函数可作为Sigm a-Pi神经网络激励函数的条件.给出了R上局部黎曼可积函数可作为Sigm a-Pi神经网络激励函数的特征条件.本文的结果表明:局部黎曼可积函数作为Sigm a-Pi神经网络激励函数的特征条件与连续函数时的情形是一致的. 展开更多
关键词 神经网络 sigma-pi函数 连续逼近 激励函数
在线阅读 下载PDF
关于连续过程神经元网络的一些理论问题 被引量:34
8
作者 许少华 何新贵 +1 位作者 刘坤 王兵 《电子学报》 EI CAS CSCD 北大核心 2006年第10期1838-1841,共4页
针对输入/输出均为连续时间函数的非线性系统信号处理和建模问题,提出了一种连续过程神经元和过程神经元网络模型.连续过程神经元的输入/输出均为连续时间函数,其时空聚合运算能同时反映连续时变输入信号的空间聚合作用和输入过程中的... 针对输入/输出均为连续时间函数的非线性系统信号处理和建模问题,提出了一种连续过程神经元和过程神经元网络模型.连续过程神经元的输入/输出均为连续时间函数,其时空聚合运算能同时反映连续时变输入信号的空间聚合作用和输入过程中的时间累积效应,可实现输入/输出之间非线性实时或若干时间单元延迟的映射关系.文中给出了一种输入输出均为连续时间函数的前馈过程神经元网络模型,并证明了相应的连续性,函数逼近能力和计算能力等性质定理. 展开更多
关键词 时变输人输出系统 连续过程神经元网络 函数逼近能力 计算能力 连续性
在线阅读 下载PDF
过程神经元网络的若干理论问题 被引量:143
9
作者 何新贵 梁久祯 《中国工程科学》 2000年第12期40-44,共5页
文章提出一种过程神经元模型 ,其输入为与时间有关的函数或过程 ,它是传统人工神经元模型在时间域上的扩展。基于这种过程神经元模型 ,给出了一种仅含一个隐层的前馈型过程神经网络模型 ,即基展开过程神经元网络模型。证明了相应的连续... 文章提出一种过程神经元模型 ,其输入为与时间有关的函数或过程 ,它是传统人工神经元模型在时间域上的扩展。基于这种过程神经元模型 ,给出了一种仅含一个隐层的前馈型过程神经网络模型 ,即基展开过程神经元网络模型。证明了相应的连续性定理 ,逼近定理 ,计算能力定理等。 展开更多
关键词 过程神经元网络 函数逼近能力 计算能力 连续性 网络模型
在线阅读 下载PDF
单体模糊神经网络的函数逼近能力 被引量:13
10
作者 梁久祯 何新贵 《计算机研究与发展》 EI CSCD 北大核心 2000年第9期1045-1049,共5页
研究了单体模糊神经网络 (MFNNs)的函数逼近能力 .由于在 MFNNs中神经元的基本运算由原来的积 -和运算改为求极小 -极大运算 ,网络的函数逼近性质发生了很大的改变 .给出了单调传递函数的 MFNNs按序单调特性、连续映射定理以及非函数一... 研究了单体模糊神经网络 (MFNNs)的函数逼近能力 .由于在 MFNNs中神经元的基本运算由原来的积 -和运算改为求极小 -极大运算 ,网络的函数逼近性质发生了很大的改变 .给出了单调传递函数的 MFNNs按序单调特性、连续映射定理以及非函数一致逼近定理 .从而说明 MFNNs虽然能够保持连续性映射 ,但不如原神经网络具有函数逼近能力 . 展开更多
关键词 模糊神经网络 逼近能力 函数逼近 人工神经网络
在线阅读 下载PDF
基于近似熵的Multi-h CPM调制识别算法 被引量:4
11
作者 刘凯 赵梦伟 黄青华 《系统工程与电子技术》 EI CSCD 北大核心 2020年第3期698-703,共6页
Multi-h连续相位调制(continuous phase modulation,CPM)信号与其调制指数均值相等的Single-h CPM信号的特征具有极大相似性,难以区分。针对该问题,提出了一种基于近似熵的Multi-h CPM调制识别算法。该算法将信号按照相同调制指数为一... Multi-h连续相位调制(continuous phase modulation,CPM)信号与其调制指数均值相等的Single-h CPM信号的特征具有极大相似性,难以区分。针对该问题,提出了一种基于近似熵的Multi-h CPM调制识别算法。该算法将信号按照相同调制指数为一组的方式拆分为多个子序列,通过舍弃符号间拼接产生的多余模式向量对近似熵进行修正,然后利用Multi-h CPM信号各子序列近似熵的差异性,完成Multi-h CPM信号和Single-h CPM信号的类间识别,最后利用概率神经网络完成类内识别。实验结果表明,该算法在信噪比低至11 dB时,仍可以达到90%的识别率。 展开更多
关键词 Multi-h连续相位调制 调制识别 近似熵 概率神经网络
在线阅读 下载PDF
脑—机接口研究中想象动作提取的新方法 被引量:2
12
作者 綦宏志 陈滨津 +2 位作者 张谦 王振 万柏坤 《信息与控制》 CSCD 北大核心 2006年第4期498-502,507,共6页
想象动作提取是脑—机接口(BC I)技术的关键和难点之一.本文采用连续小波变换结合贝叶斯神经网络组成新的分类方法,利用想象动作思维引起的事件相关去同步(ERD)现象进行特征脑电信息检测与模式识别.研究表明,该方法较常用的线性分类器... 想象动作提取是脑—机接口(BC I)技术的关键和难点之一.本文采用连续小波变换结合贝叶斯神经网络组成新的分类方法,利用想象动作思维引起的事件相关去同步(ERD)现象进行特征脑电信息检测与模式识别.研究表明,该方法较常用的线性分类器具有更高的识别准确率和较强的抗干扰能力及较快的识别速度,基本可以满足实时BC I系统模式识别的需求. 展开更多
关键词 脑-机接口 想象动作 事件相关去同步 近似熵 连续小波变换 贝叶斯神经网络
在线阅读 下载PDF
多项式前向神经网络 被引量:2
13
作者 谢开贵 柏森 周家启 《重庆大学学报(自然科学版)》 EI CAS CSCD 北大核心 2001年第3期76-79,98,共5页
提出一种新型的前向神经网络模型———多项式神经网络。该网络具有三层结构 ,隐层、输出层神经元激活函数分别为 :f(x) =xp 和线性函数 ;网络隐层 -输出层的权值采取最速下降法学习 ,输入层 -隐层的权值采用遗传算法进行学习 ;网络学习... 提出一种新型的前向神经网络模型———多项式神经网络。该网络具有三层结构 ,隐层、输出层神经元激活函数分别为 :f(x) =xp 和线性函数 ;网络隐层 -输出层的权值采取最速下降法学习 ,输入层 -隐层的权值采用遗传算法进行学习 ;网络学习时 ,其误差函数单调递减 ,学习算法具有较好的收敛性 ;该网络能逼近任意的连续函数 ,且具有较好的稳定性。应用实例表明该网络的性能是优良的。 展开更多
关键词 多项式前向神经网络 最速下降法 算法收敛性 逼近能力
在线阅读 下载PDF
高阶神经网络与太阳黑子序列 被引量:3
14
作者 李金艳 余英林 TommyW.S.Chow 《华南理工大学学报(自然科学版)》 EI CAS CSCD 北大核心 1997年第11期36-35,共10页
一阶神经网络的函数逼近理论虽已研究得相当深入,但对高阶神经网络在这方面的研究却报道甚少.本文给出了高阶神经网络的逼近理论.其具体内容是:如果网络的激励函数σ∈C~∞不是一个多项式,那么高阶神经网络能够以任意精度逼近任意定义... 一阶神经网络的函数逼近理论虽已研究得相当深入,但对高阶神经网络在这方面的研究却报道甚少.本文给出了高阶神经网络的逼近理论.其具体内容是:如果网络的激励函数σ∈C~∞不是一个多项式,那么高阶神经网络能够以任意精度逼近任意定义在紧集上的连续函数.根据这个理论,可知稀疏或部分连接的高阶神经网络象全连接的网络一样能够逼近任意连续函数.基于此观点,我们设计了一个稀疏连接的高阶网络和另一个具有相同数目连接权的一阶神经网络,并把它们应用于太阳黑子序列进行逼近和预测.模拟实验结果表明,不论在收敛速度还是在推广能力方面,稀疏连接的高阶神经网络都优于一阶神经网络. 展开更多
关键词 逼近 高阶神经网络 稀疏连接 收敛特性 推广能力 太阳黑子序列
在线阅读 下载PDF
一类反馈神经网络对非线性连续系统近似能力的证明 被引量:2
15
作者 李晓东 梁晓波 《电子学报》 EI CAS CSCD 北大核心 2001年第1期103-105,共3页
本文从多层前馈神经网络的一般近似定理出发 ,证明了带有输入的非线性连续系统在有限时间段内的输出轨迹可以被一类反馈神经网络输出神经元的状态向量近似到任何程度 .
关键词 非线性连续系统 反馈神经网络 近似
在线阅读 下载PDF
模糊反向传播神经网络的函数逼近能力研究 被引量:1
16
作者 王士同 朱晓铭 《应用科学学报》 CAS CSCD 2002年第3期287-290,共4页
研究了模糊反向传播神经网络的函数逼近能力 .研究结果给出了单调连续函数的 FBP按序单调特性、连续映射定理以及非函数一致逼近定理 ,并且说明了 FBP虽然能保持连续性映射 。
关键词 模糊反向传播神经网络 函数逼近能力 连续函数 连续映射定理 序单调性 学习规则
在线阅读 下载PDF
基于BP神经网络的连续状态并串联系统冗余度优化设计 被引量:1
17
作者 尹树悦 陈东林 《机械强度》 EI CAS CSCD 北大核心 2007年第2期247-250,共4页
提出一种以费用为约束条件的连续状态并串联系统冗余度优化设计模型。用传统的优化算法很难求得该模型目标函数的显性表达式,文中提出用BP(back propagation)神经网络对目标函数进行逼近,得到的近似目标函数是标准sigmoid函数的线性组... 提出一种以费用为约束条件的连续状态并串联系统冗余度优化设计模型。用传统的优化算法很难求得该模型目标函数的显性表达式,文中提出用BP(back propagation)神经网络对目标函数进行逼近,得到的近似目标函数是标准sigmoid函数的线性组合。仿真结果表明,该方法可以精确地求得系统的最优冗余度。 展开更多
关键词 可靠性 BP神经网络 连续状态 冗余度优化设计 sigmold函数 逼近
在线阅读 下载PDF
一类神经网络逼近全实轴上函数:稠密性、复杂性与构造性算法
18
作者 曹飞龙 李振彩 +1 位作者 赵建伟 吕科 《计算机学报》 EI CSCD 北大核心 2012年第4期786-795,共10页
在已有的神经网络逼近研究中,目标函数通常定义在有限区间(或紧集)上.而实际问题中,目标函数往往是定义在全实轴(或无界集)上.文中针对此问题,研究了全实轴上的连续函数的插值神经网络逼近问题.首先,利用构造性方法证明了神经网络逼近... 在已有的神经网络逼近研究中,目标函数通常定义在有限区间(或紧集)上.而实际问题中,目标函数往往是定义在全实轴(或无界集)上.文中针对此问题,研究了全实轴上的连续函数的插值神经网络逼近问题.首先,利用构造性方法证明了神经网络逼近的稠密性定理,即可逼近性.其次,以函数的连续模为度量尺度,估计了插值神经网络逼近目标函数的速度.最后,利用数值算例进行仿真实验.文中的工作扩展了神经网络逼近的研究内容,给出了全实轴上连续函数的神经网络逼近的构造性算法,并揭示了网络逼近速度与网络拓扑结构之间的关系. 展开更多
关键词 神经网络 全实轴 逼近 速度 连续模
在线阅读 下载PDF
母线保护的人工神经网络模型 被引量:2
19
作者 詹红霞 王秋红 《重庆电力高等专科学校学报》 2006年第3期11-15,共5页
叙述基于ANN函数逼近能力的母线保护原理,分析母线保护物理对象的函数关系,构建母线保护的人工神经网络模型。
关键词 母线保护 人工神经网络 函数逼近能力
在线阅读 下载PDF
模糊反向传播神经网络FBP的函数逼近能力研究
20
作者 王士同 朱晓铭 《华东船舶工业学院学报》 EI 2001年第4期44-48,共5页
研究了模糊反向传播神经网络FBP(FuzzyBackpropagation)的函数逼近能力。给出了单调连续函数的FBP按序单调特性、连续映射定理以及非函数一致逼近定理 ,并且说明了FBP虽然能保持连续性映射 ,但不如原神经网络具有函数逼近能力。
关键词 FBP 模糊神经网络 反向传播 函数逼近能力 单调连续函数
在线阅读 下载PDF
上一页 1 2 下一页 到第
使用帮助 返回顶部