神经网络最终版课件

PPT
  • 阅读 40 次
  • 下载 0 次
  • 页数 75 页
  • 大小 2.860 MB
  • 2023-04-16 上传
  • 收藏
  • 违规举报
  • © 版权认领
下载文档25.00 元 加入VIP免费下载
此文档由【小橙橙】提供上传,收益归文档提供者,本网站只提供存储服务。若此文档侵犯了您的版权,欢迎进行违规举报版权认领
神经网络最终版课件
可在后台配置第一页与第二页中间广告代码
神经网络最终版课件
可在后台配置第二页与第三页中间广告代码
神经网络最终版课件
可在后台配置第三页与第四页中间广告代码
神经网络最终版课件
神经网络最终版课件
还剩10页未读,继续阅读
【这是免费文档,您可以免费阅读】
/ 75
  • 收藏
  • 违规举报
  • © 版权认领
下载文档25.00 元 加入VIP免费下载
文本内容

【文档说明】神经网络最终版课件.ppt,共(75)页,2.860 MB,由小橙橙上传

转载请保留链接:https://www.ichengzhen.cn/view-244304.html

以下为本文档部分文字说明:

人工神经网络基础知识1.人工神经网络概述➢什么是人工神经网络(ArtificialNeuralNetwroks-----ANN)?▪生物神经网络(naturalneuralnetwork,NNN):由中枢神经系统(脑和脊髓)及周围神经系统(感觉神经、运动神经等)所构成的

错综复杂的神经网络,其中最重要的是脑神经系统。▪人工神经网络(artificialneuralnetworks,ANN):模拟人脑神经系统的结构和功能,运用大量简单处理单元经广泛连接而组成的人工网络系统。✓T.Koholen

的定义:“人工神经网络是由具有适应性的简单单元组成的广泛并行互连的网络,它的组织能够模拟生物神经系统对真实世界物体所作出的交互反应。”•1.1研究ANN目的•1.2ANN的研究内容•1.3研究ANN方

法•1.4神经网络的发展概况•1.5神经网络的特点1.人工神经网络概述利用机器模仿人类的智能是长期以来人们认识自然、改造自然和认识自身的理想。1.1研究ANN目的:•(1)探索和模拟人的感觉、思维和行为的规律,设计具有人类智能的计算机系统。•(2)探讨人脑的智能活动,用物化了的智能来考察和

研究人脑智能的物质过程及其规律。1.2ANN的研究内容(1)理论研究:ANN模型及其学习算法,试图从数学上描述ANN的动力学过程,建立相应的ANN模型,在该模型的基础上,对于给定的学习样本,找出一种能以较快的速度和较高的精

度调整神经元间互连权值,使系统达到稳定状态,满足学习要求的算法。(2)实现技术的研究:探讨利用电子、光学、生物等技术实现神经计算机的途径。(3)应用的研究:探讨如何应用ANN解决实际问题,如模式识别、故障检测、智能机器

人等。1.3研究ANN方法(1)生理结构的模拟:用仿生学观点,探索人脑的生理结构,把对人脑的微观结构及其智能行为的研究结合起来即人工神经网络(ArtificialNeuralNetwroks,简称ANN)方法。

(2)宏观功能的模拟:从人的思维活动和智能行为的心理学特性出发,利用计算机系统来对人脑智能进行宏观功能的模拟,即符号处理方法。❑探索时期:(开始于20世纪40年代)▪1943年,麦克劳(W.S.McCullocn)和匹茨(W.A.Pitts)首次提出一个神经网络模型——M-P模型。▪1949

年,赫布(D.O.Hebb)提出改变神经元连接强度的Hebb学习规则。1.4神经网络的发展概况▪1958年,罗森布拉特(F.Rosenblatt)提出感知器模型(perceptron)。▪1959年,威德罗(B.Widrow)等提出自

适应线性元件(adaline)网络,通过训练后可用于抵消通信中的回波和噪声。1960年,他和M.Hoff提出LMS(LeastMeanSquare最小方差)算法的学习规则。❑第一次热潮时期:(20世纪50年代末-20世纪60年代初)▪1969年,明斯基(M.Min

sky)等在《Perceptron》中对感知器功能得出悲观结论。▪1972年,T.Kohonen和J.Anderson分别提出能完成记忆的新型神经网络。▪1976年,S.Grossberg在自组织神经网络方面的研究十

分活跃。❑低潮时期:(20世纪60年代末-20世纪70年代)❑第二次热潮时期:20世纪80年代至今▪1982年-1986年,霍普菲尔德(J.J.Hopfield)陆续提出离散的和连续的全互连神经网络模型,并成功求解旅行商问题(TS

P)。▪1986年,鲁姆尔哈特(Rumelhart)和麦克劳(McCellan)等在《ParallelDistributedProcessing》中提出反向传播学习算法(B-P算法)。▪1987年6月,首届国际神经网络学术会议在美国圣地亚哥召开,成立了国际神经网络学会(INNS)。1.5人工神经网

络的特点(1)固有的并行结构和并行处理−人工神经网络与人类的大脑类似,不但结构上是并行的,其处理顺序也是并行的和同时的。−在同一层内的处理单元都是同时工作的,即神经网络的计算功能分布在多个处理单元上,

而传统的计算机通常只有一个处理单元,其处理顺序是串行的。−目前的神经网络功能常常用一般计算机的串行工作方式来模拟,所以显得很慢,真正意义上的神经网络将会大大提高处理速度,实现快速处理。(2)知识的分布存储−在神经网络中,知识不是存储在特定的存储单元,而是分布在整个系统中,要

存储多个知识就需要很多连接。−在计算机中,只要给定一个地址就可以得到一个或一组数据,在神经网络中,要获得存储的知识则采用“联想”的办法,这类似于人类和动物的记忆。−当一个神经网络输入一个激励时,它要在已存储的知识中寻找与该输入匹配最好的知识存储为其解。−

人类根据联想善于正确识别图形,人工神经网络也具有这种能力。(3)容错性−人类大脑具有很强的容错能力,这正是由于大脑中知识是存储在很多处理单元和它们的连接上的。•每天大脑的一些细胞都可能会自动死亡,但这并没有影响人们的记忆和思考能力。−人工神经网络可以从不完善的数据和图形进行学习和做出决定•由

于知识存在整个系统中,而不是在一个存储单元内,因此一定比例的结点不参与运算,对整个系统的性能不会产生重大影响。•神经网络中承受硬件损坏的能力比一般计算机要强得多。(4)自适应性−人类有很强的适应外部的学习能力•小孩在周围环境的熏陶下可以学会很多事情,

如通过学习可以认字、说话、走路、思考、判断等。◼人工神经网络也具有学习能力有指导的训练:将输入样本加到网络输入并给出相应的输出,通过多次训练迭代获得连接权值。好像告诉网络:“当你看到这个图形(比如5)时,请给我指示5”。无指导

的训练:网络通过训练自行调节连接加权,从而对输入样本分类在网络训练时,有时只能给出大量的输入图形,没有指定它们的输出,网络就自行按输入图形的特征对它们进行分类。如小孩通过大量观察可以分辨出哪是狗、哪是猫一样。2神经元与神经

网络2.1生物神经元的结构2.2神经元数学模型2.3神经网络结构与工作方式2.4神经网络的学习方法2.1生物神经元的结构◼人脑由一千多亿(1011亿-1014亿)个神经细胞(神经元)交织在一起的网状结构组成,其中大脑皮层约140亿个神经元,小

脑皮层约1000亿个神经元。◼神经元约有1000种类型,每个神经元大约与103-104个其他神经元相连接,形成极为错综复杂而又灵活多变的神经网络。◼人的智能行为就是由如此高度复杂的组织产生的。浩瀚的宇宙中,也许只有包含数千忆颗星球的银河系的复杂性能够与大脑相比。(输入)

(输出)神经冲动◼神经元的信息传递和处理是一种电化学活动,树突由于电化学作用接受外界的刺激(输入);通过胞体内的活动体现为轴突电位,当轴突电位达到一定的值则形成神经脉冲或动作电位;再通过轴突末梢传递给其他神经元(输出

)。从控制论的观点来看,这一过程可以看作一个多输入单输出非线性系统的动态过程。细胞体突触轴突树突图12.2生物神经元功能模型输入输出信息处理电脉冲形成传输生物神经网络基本模型◼神经元的工作状态:⚫兴奋状态:细胞膜电位>动作电位的阈值→神经冲动⚫抑制状态:细胞膜电位<动作电位的

阈值◼学习与遗忘:由于神经元结构的可塑性,突触的传递作用可增强和减弱。◼脑神经信息活动的特征:⚫巨量并行性。⚫信息处理和存储单元结合在一起。⚫自组织自学习功能。人工神经元模型可以看成是由三种基本元素组成:(1)一组连接

连接强度由各连接上的权值表示,权值可以取正值也可以取负值,权值为正表示激活,权值为负表示抑制;(2)一个加法器用于求输入信号对神经元的相应突触加权之和;(3)一个激活函数用限制神经元输出振幅,激活函数也称为压制函数。因为他将输入信

号压制(限制)到允许范围之内的一定值。2.2神经元数学模型1,2nxxx1,2iiinwww1,2nxxx输入信号连接权阈值激活函数输出图中是神经元的输入,即是来自前级n个神经元的轴突的信息A,是i神经元的阈

值;分别是i神经元对的权系数,也即突触的传递效率;yi是i神经元的输出;f[.]是激励函数它决定i神经元受到输入的共同刺激达到阈值时以何种方式输出。1,2iiinwww1,2nxxx1,2nxxx1,2

nxxx神经元数学模型输入信号连接权求和神经元数学模型由神经元模型,可以得到神经元的数学模型表达式:1()niijjijiiuwxYfu==−=基本特性:(1)非线性:线性系统就是满足叠加原理和齐次性的系统,通俗地讲,

就是y=kx这样的函数关系就是线性,而神经网络是典型的非线性系统,它不满足这两个特性,也正因为它是非线性系统,所以才能解决非线性分类等问题。(2)非局限性:以BP神经网络为例,BP要达到在全局范围内找到能使误差最小的权值,这就是非局域性。(

3)非常定性:定常就是一个系统的结构参数是固定的常数,而神经网络是可以通过训练修改权值的,当然具有非定常性。(4)非凸性:非凸性是指系统的能量函数有多个极值,即系统有多个稳定的平衡态。激活函数的主要形式一些典型的特性函数阈值型线性型s型2神经元与神经

网络•2.1生物神经元的结构•2.2神经元数学模型•2.3神经网络结构与工作方式•2.4神经网络的学习方法2.3神经网络的结构与工作方式•决定人工神经网络性能的三大要素:◼神经元的特性。◼神经元之间相互连接的形式——拓扑结构。◼为适应环境而改善性能的学习规则。❑(1)神经网络的结构(a)前馈型神经

网络,又称前向网络(FeedforwardNN)2.3神经网络的结构与工作方式神经元分层排列,有输入层、隐层(亦称中间层,可有若干层)和输出层,每一层的神经元只接受前一层神经元的输入。❑(b)反馈型神经网络(Fe

edbackNN)(Hopfield神经网络)2.3神经网络的结构与工作方式如果总节点(神经元)数为N,那么每个节点有N个输入和一个输出,也就是说,所有节点都是一样的,它们之间都可相互连接。每个神经元同时将自身的输出信号作为输入信号反馈给其他神经元,它需要工作一段时间才能达到稳定。❑(2)神经

网络的工作方式◼同步(并行)方式:任一时刻神经网络中所有神经元同时调整状态。◼异步(串行)方式:任一时刻只有一个神经元调整状态,而其它神经元的状态保持不变。2.3神经网络的结构与工作方式•目前神经网络的学习方法

有多种:按有无导师来分类,可分为有教师学习(SupervisedLearning)、无教师学习(UnsupervisedLearning)和再励学习(ReinforcementLearning)等几大类。在有教师的学习方式中,网络的输出和期望的输出(即教师

信号)进行比较,然后根据两者之间的差异调整网络的权值,最终使差异变小。在无教师的学习方式中,输入模式进人网络后,网络按照一预先设定的规则(如竞争规则)自动调整权值,使网络最终具有模式分类等功能。再励学习是介于上述两者之间的一种学习方式。2.4神

经网络的学习方法神经网络中常用的几种最基本的学习方法(1).Hebb学习规则➢两个神经元同时处于激发状态时,它们之间的连接强度将得到加强,这一论述的数学描述被称为Hebb学习规则➢Hebb学习规则是一

种无教师的学习方法,它只根据神经元连接间的激活水平改变权值,因此这种方法又称为相关学习或并联学习。(2)学习规则(误差修正规则)令yi(k)为输入x(k)时神经元i在k时刻的实际输出,ti(k)表示相应的期望输出,则误差信号可写为:ei(k)=ti(k)-yi(k)误差纠正学习的最终目的

是使某一基于ei(k)的目标函数达最小,以使网络中每一输出单元的实际输出在某种统计意义上最逼近于期望输出。一旦选定了目标函数形式,误差纠正学习就成为一个典型的最优化问题。(3).概率式学习•从统计力学、分子热力学和概率论中关于系统稳态能量的标准出发,进行神经网络学习

的方式称概率式学习。神经网络处于某一状态的概率主要取决于在此状态下的能量,能量越低,概率越大。概率式学习的典型代表是Boltzmann机学习规则。它是基于模拟退火的统计优化方法,因此又称模拟退火算法。(4).竞争式学习•竞争式学习属于无教师学习方式。此种学习方式利用不同层间的神经元发生兴奋性联接

,以及同一层内距离很近的神经元间发生同样的兴奋性联接,而距离较远的神经元产生抑制性联接。在这种联接机制中引入竟争机制的学习方式称为竟争式学习。它的本质在于神经网络中高层次的神经元对低层次神经元的输入模式进行

竞争识别。3BP神经网络及其学习算法3.1BP神经网络(back-propagationneuralnetwork)的结构3.2BP学习算法3.3BP算法的实现3.1BP神经网络的结构mpmmmyyy21TpxxxX][121=TmpmmmyyyY][21=mpmmmyyy21121p

xxx(1).BP网络结构3.1BP神经网络的结构i12pk-1...k-1k11−−kpky11−ky12−kykiykiw1kiw2kipkw1−kiukikieufy−+==11)()1,(010011111−===−=−=−=−−−kiikpjkjkijipj

kjkijkiwyywywukkmk,...,2,1=kpi,...,2,1=(2).输入输出变换关系3.1BP神经网络的结构(3).工作过程⚫第一阶段或网络训练阶段:N组输入样本:xi=[xi1,xi2,…,xip1]

Tdi=[di1,di2,…,dipm]Ti=1,2,…,N对网络的连接权进行学习和调整,以使该网络实现给定样本的输入输出映射关系。⚫第二阶段或称工作阶段:把实验数据或实际数据输入到网络,网络在误差范围内预测计算出结果。3

BP神经网络及其学习算法3.1BP神经网络的结构3.2BP学习算法3.3BP算法的实现⚫(1)是否存在一个BP神经网络能够逼近给定的样本或者函数。3.2BP学习算法▪两个问题:⚫(2)如何调整BP神经网络的连接权,

使网络的输入与输出与给定的样本相同。◆1986年,鲁梅尔哈特(D.Rumelhart)等提出BP学习算法。3.2BP学习算法⚫目标函数:=−=mpjjmjdyJ12)(21⚫约束条件:⚫连接权值的修正量:◼(1

).基本思想mk,...,2,1=kpi,...,2,1=1,...,2,1−=kpj)(kikkiufy=−−=jkjkijkiywu1111−−−=kijkijwJw⚫BP算法的基本原理:利

用输出后的误差来估计输出层的直接前导层的误差,再用这个误差估计更前一层的误差,如此一层一层的反传下去,就获得了所有其他各层的误差估计。3.2BP学习算法⚫正向传播:输入信息由输入层传至隐层,最终在输出层输出。⚫反向传播:修改各层神经元的权值,使误差信号最小。◼(2).学习算法

mpmmmyyy21121pxxx◼(2)学习算法()()mmmmiiisifyydu=−——输出层连接权调整公式1()kkkkkliiillfwdud+=——隐层连接权调整公式ydkjkikijw11−−−=式—输出层连接权调整公—))(1(yyyydimimimi

mi−−=)1(yydkikiki−=—隐层连接权调整公式—+=++1111kplklklidw11kikiuye−=+当时(3)BP算法直观解释−情况一直观表达•当误差对权值的偏导数大于零时,权值调整量为负,实际输出大于期望输出,权值向减少方向调整,

使得实际输出与期望输出的差减少。whohoewe>0,此时Δwho<0−情况二直观表达•当误差对权值的偏导数小于零时,权值调整量为正,实际输出少于期望输出,权值向增大方向调整,使得实际输出与期望输出的差减少。hoewe<0,此时Δwho>0who3.3BP算法的实现(1)隐层

数及隐层神经元数的确定:目前尚无理论指导。(2)初始权值的设置:一般以一个均值为0的随机分布设置网络的初始权值。(3)训练数据预处理:线性的特征比例变换,将所有的特征变换到[0,1]或者[-1,1]区间内,使得在每个训练集上,每个特征的均值为0,并且具有相同的方差。(4)后

处理过程:当应用神经网络进行分类操作时,通常将输出值编码成所谓的名义变量,具体的值对应类别标号。◼(1).BP算法的设计3.3BP算法的实现①初始化:对所有连接权和阈值赋以随机任意小值;②从N组输入输出样本中取一组样本:x=[x1,x2,…,xp1]T,d=[

d1,d2,…,dpm]T,把输入信息x=[x1,x2,…,xp1]T输入到BP网络中③正向传播:计算各层节点的输出:④计算网络的实际输出与期望输出的误差:)0;,...,1;,...,1;,...,1()()(1====−tpjpimkttwkkkikij,,◼(2).BP算法的计

算机实现流程),...,1,...,1(mkpiykki==;),...,1(mmiiipiyye=−=⑤反向传播:从输出层方向计算到第一个隐层,按连接权值修正公式向减小误差方向调整网络的各个连接权值。⑥让t+1→t,取出另一组样本重复(2)-(5),直到N组输入输

出样本的误差达到要求时为止。ydkjkiijw1−−=式—输出层连接权调整公—))(1(yyyydimimimimi−−=)1(yydkikiki−=—隐层连接权调整公式—+=++1111kplklklidwBP学习算法程序框图(3)BP神经网络学习算法的MATLAB实现•MA

TLAB中BP神经网络的重要函数和基本功能生成网络:newff学习规则:learngd,learngdm训练算法:traingd,traingdm,traingda,traingdx,trainlm变换函数:tansig,p

urelin,logsig训练网络:train仿真网络:sim画图:plotes,plotep,ploterr,barerr➢newff该函数用于创建一个BP网络。调用格式为:net=newffnet=newff(PR,[

S1S2..SN1],{TF1TF2..TFN1},BTF,BLF,PF)其中,net=newff;用于在对话框中创建一个BP网络。net为创建的新BP神经网络;PR为网络输入向量取值范围的矩阵;[S1S2…SNl]表示网络隐含层和输出层神

经元的个数;{TFlTF2…TFN1}表示网络隐含层和输出层的传输函数,默认为‘tansig’;BTF表示网络的训练函数,默认为‘trainlm’;BLF表示网络的权值学习函数,默认为‘learngdm’;PF表示性能数,默认为‘mse’。➢例:基于BP神经网络逼近函数要

求设计一个BP网络逼近以下函数:其中,分别令k=1,2,4进行仿真,通过调节参数(如隐藏层节点个数等)得出信号的频率与隐层节点之间,隐层节点与函数逼近能力之间的关系。)4/sin(1)(xkxg+=步骤1:假设频率参数k=1,绘制要逼近的非线

性函数的曲线。k=1;p=[-1:.05:8];t=1+sin(k*pi/4*p);plot(p,t,'-');title('要逼近的非线性函数');xlabel('时间');ylabel('非线性函数');应用newff()函数建立BP网络结构。隐层

神经元数目n可以改变,暂设为n=3,输出层有一个神经元。选择隐层和输出层神经元传递函数分别为tansig函数和purelin函数,网络训练的算法采用LM算法trainlm。n=3;net=newff(minmax(p),[n,1],{'tansig''pureli

n'},'trainlm');%对于初始网络,可以应用sim()函数观察网络输出。y1=sim(net,p);figure;plot(p,t,'-',p,y1,':')title('未训练网络的输出结果');xlabel('时间');ylabel('仿真输

出--原函数-');步骤2:网络的建立其中“—”代表要逼近的非线性函数曲线;“‥‥‥”代表未经训练的函数曲线;步骤3:网络训练应用train()函数对网络进行训练之前,需要预先设置网络训练参数。将训练时间设置为50,训练精

度设置为0.01,其余参数使用缺省值。net.trainParam.epochs=50;%网络训练时间设置为50net.trainParam.goal=0.01;%网络训练精度设置为0.01net=train(net,p,t);%开始训练网络训练后得到的误差变化过程步骤4:

网络测试对于训练好的网络进行仿真:y2=sim(net,p);figure;plot(p,t,'-',p,y1,':',p,y2,'--')title('训练后网络的输出结果');xlabel('时间');ylabel('仿真输出');

其中“—”代表要逼近的非线性函数曲线;“‥‥‥”代表未经训练的函数曲线;“―――”代表经过训练的函数曲线;➢不同频率下的逼近效果(1)频率参数设为k=2,当隐层神经元数目分别取n=3、n=6时当n=3时训练后网络的输出结果当n=6时训

练后网络的输出结果(2)频率参数设为k=4,当隐层神经元数目分别取n=6、n=8时当n=6时训练后网络的输出结果当n=8时训练后网络的输出结果➢结论通过上述仿真结果可知,当k=1,n=3时;k=2,n=6时;k=4,n=8时,BP神经网络

分别对函数取得了较好的逼近效果。由此可见,n取不同的值对函数逼近的效果有很大的影响。改变BP网络隐层神经元的数目,可以改变BP神经网络对于函数的逼近效果。隐层神经元数目越多,则BP网络逼近非线性函数的能力越强。RBF神经网络径向基函数(RadialBasisFunction,RBF)网络是由Moo

dyJ和DarkenC于20世纪80年代末提出的一种神经网络结构,是一种有监督的神经网络。它是借鉴生物机制中的局部凋节及交叉接受区域知识的基础上提出的一种采用局部接受域来执行函数映射的人工神经网络。RBF网络最基本的构成包括3层,其中每一层都有着完全不同的作用。1.RBF神

经网络概念1.1RBF神经网络概况:1X2X3X4X1W2W3W4WYNeuron:神经元111223344niiiywxwxwxwxwx==•+•+•+•=•输入输出X1x11x12x13x14y1X2x21x22x23x24y2X3x31x32x33x34y3X4x41x42x43x44y

4....................................Xnxn1xn2xn3xn4yn11121231341411212223234242......11223344wxwxwxwxywxwxwxwxywxnwxnwxnwxny

n•+•+•+•=•+•+•+•=•+•+•+•=1112131411............2...............3...12344xxxxwywAWYwxnxnxnxnwyn

===AWY•=1WAY−=•()1TTWAAAY−=••1.1.1神经网络基础:1.1.1RBF神经网络基础:1X2X3X4X1W2W3W4WYNeuron:神经元分类回归1.

1.1RBF神经网络基础:RBF神经网络的本质:把输入数据从一个空间转换到另一个空间。1X2X1W2WY()1x()2x1X2X()1x()2x1.1.2RBF神经网络的例子1X2X1W2WY()1x()2x()()212212xuxuxexe−−

−−==121100uu==1X2X()1x()2x径向基函数有多种形式,如:二次型、逆二次型或Gauss型等。若采用高斯函数作为径向基函数,则神经元的输出为:1.2RBF神经网络的正式定义1X2X3X4X1W2W3WY()1x()2x

()3x()x()()()()()()()()()()22221/2221/222exp/logxxxxxxxxxxxxx−===−==+=+()22exp2jxux−=−GaussianRBF(GRBF)1.2.1RBF神经网络的分类

:一、Eeact有几组数据,就有几个,适合数据比较少的网络二、Approximate如果数据多,需要先对数据进行归类()x神经网络的应用(1)自动控制领域。神经网络方法已经覆盖了控制理论中的绝大多数问题,主要有系统建模与辨识、P

ID参数整定、极点配置、内模控制、优化设计、预测控制、最优控制、自适应控制、滤波与预测容错控制、模糊控制和学习控制等。(2)处理组合优化问题。最典型的例子是成功地解决了TSP问题,即旅行推销员问题。另外还

有最大匹配问题、装箱问题和作业调度等。2.神经网络的应用神经网络PID控制(neuralnetworkPIDcontrol)经典增量式数字PID的控制算法为:))2()1(2)(()())1()(()1()(−+−−++−−+−=keke

kekkekkekekkukudipNN是一个三层BP网络,有M个输入节点、N个隐含节点、3个输出节点。输入节点对应所选的系统运行状态量,输出节点分别对应PID控制器的3个可调参数kp,ki,kd。(3)模式识别。已成功应用于手写字符、汽车牌照、指纹和

声音识别,还可用于目标的自动识别和定位、机器人传感器的图像识别以及地震信号的鉴别等。(4)机器人控制。对机器人眼手系统位置进行协调控制,用于机械手的故障诊断、智能自适应移动机器人的导航。(5)信号处理。能分

别对通讯、语音、心电和脑电信号进行处理分类;可用于海底声纳信号的检测与分类,在反潜、扫雷等方面得到应用。(6)卫生保健、医疗。比如通过训练自主组合的多层感知器可以区分正常心跳和非正常心跳。(7)经济。能对商品

价格、股票价格和企业的可信度等进行短期预测。(8)化工领域。能对制药、生物化学和化学工程等进行分析。如:进行蛋白质结构分析、谱分析和化学反应分析等。(9)图像处理。对图像进行边缘监测、图像分割、图像压缩和图像恢复。(10)传感器信号处理。传感器输出非线性特性的校正、传感器故障检测、滤

波与除噪、环境影响因素的补偿、多传感器信息融合。(11)焊接领域。国内外在参数选择、质量检验、质量预测和实时控制方面都有研究,部分成果已得到应用。(12)地理领域。在遥感图像分类中有广泛的应用,提高系统对数据进行复杂的综合分析的功能。(13)另外,

在数据挖掘、电力系统、交通、军事、矿业、农业和气象等方面亦有应用。3.神经网络的发展前景我们可以想象到那时声控电视、电话、计算机、打字机等将进入寻常百姓家;人类可以直接同机器进行接口对话;具有思维、语言、感情的智能机器人将替代我们去做许多繁琐和人类自身不适合做的事

情。谢谢!

小橙橙
小橙橙
文档分享,欢迎浏览!
  • 文档 25747
  • 被下载 7
  • 被收藏 0
相关资源
广告代码123
若发现您的权益受到侵害,请立即联系客服,我们会尽快为您处理。侵权客服QQ:395972555 (支持时间:9:00-21:00) 公众号
Powered by 太赞文库
×
确认删除?