基于广义动态模糊神经网络的算法研究

作者:马莉;张德丰 刊名:计算机工程与设计 上传者:石林锋

【摘要】在D-FNN算法基础上,提出了一种新的基于椭圆基函数的广义动态模糊神经网络方法。该方法不仅可以用于系统建模、辨识和控制,而且还可以用于模糊规则的自动生成或抽取。提出了一种模糊-完备性作为在线参数分配机制,避免初始化选择的随机性,同时,该算法不仅能对模糊规则而且能对输入变量的重要性作出评估,从而使每条规则的输入变量的宽度可以根据它对系统性能贡献的大小实施在线自适应调整。开发了相关的算法程序,最后针对实际案例进行了仿真分析,表明了该算法的有效性和高效性。

全文阅读

0引言目前,神经网络、模糊逻辑和进化计算是人工智能最新的理论基础,在国际上受到了人们高度关注,也是现在各国学者热衷于研究的前沿课题。不少学者不约而同地认为:未来的前沿技术将是模糊逻辑和神经网络结合的新技术神经模糊技术[1]。所谓的“动态”是指模糊神经网络的网络结构不是预先设定的,而是动态变化的,即在学习开始之前,没有一条模糊规则,其模糊规则是在学习过程中逐渐增长而形成的。所谓的“广义”有两层含义,从原理上来说,提出了基于椭圆基函数(EBF),与RBF接收域相比,EBF接收域提供了更灵活、更广泛的非线性变换来逼近任意一个非线性系统,因此算法上更为复杂,更具有一般性,尤其适合MIMO系统;从应用上来说,该算法提取的模糊规则具有很好的可理解性,因此,除了作为建模工具外,本方法还可以作为知识提取的工具。1GD-FNN的结构与学习算法1.1GD-FNN的结构GD-FNN结构如图1所示。设是输入变量数,并且每个输入变量(=1,2,…,)有个隶属函数(=1,2,…,),它们位于第2层,这些隶属函数都是如下形式的高斯函数[2]=exp22,=1,2,…,,=1,2,…,(1)式中:的第个隶属函数,和分别为的第个高斯隶属函数的中心和宽度。如果用于计算每个规则触发权的T-范数算子是乘法,那么第3层第一个规则(=1,2,…,)的输出是1,2,…,=exp=122,=1,2,…,(2)第4层的每个节点代表一个输入信号加权和的输出变量1,2,…,==1(3)式中:一个输出变量的值,THEN部分或者第个规则的连接权。对于TSK模型=0+11+…+,=1,2,…,(4)对应用于一个模糊系统,该层执行去模糊化的功能,同时考虑了所有输出语言值的隶属函数的影响。值得指出的是,与D-FNN相比,以上所构造的模糊神经网络GD-FNN具有如下不同点:(1)每条模糊规则的T-范数由式(2)来表示,它可以看做是对角化的马氏距离(Mahalanobis),即=exp[2](5)上式中=XCT1XC(6)式(6)是马氏距离,而X=1,…,rT,C=1,2,…,T,同时j1为1=1210000122012,=1,2,…,(7)显然,这个模型的接收域是超椭球体而不是RBF单元中的超球体。(2)不同的输入变量有不同的隶属函数数目。换句话说,某个输入变量的隶属函数(=1,2,…,)可能会有重复[3]。1.2GD-FNN学习算法1.2.1模糊规则产生准则(1)系统误差GD-FNN输出误差是确定是否增加新的模糊规则的一个重要因素。误差准则可以表示如下:对每个观测数据,,=1,2,…,,其中,是全部训练数据的数量,是第个输入样本向量,是第个期望的输出,用式(2)~式(3)计算当前结构下的GD-FNN输出。定义系统误差为[4]=(8)如果>(9)则应该考虑增加一条新的模糊规则。这里,是预先定义的一个阈值,它在学习过程中按以下准则逐渐变化=max1(13)式中,一个预先设定并与相关联的阈值,则表明现有的系统不满足-完备性而应该考虑产生一条新规则。这里,在学习的过程中是按下式变化的=max=ln1/min1且>(18)式中:容许的较小值,高斯函数的宽度选择如下=maxln11/,+1=1,2,…,(19)式中:1和+1是与第个隶属函数邻近的两个隶属函数的中心。那么,就称(=1,2,…,)为半闭模糊集[8]。定理1定义2中的半闭模糊集(=1,2,…,)一定满足模糊规则的-完备性,即对所有,存在{1,2,…,},使成立。证明:下面分为几种不同的情况来证明定个定理。(1)如果仅仅存在一个模糊集,即=1,则可以根据定义2产

参考文献

引证文献

问答

我要提问