BP神经网络的哲学思考_神经网络模型论文

BP神经网络的哲学思考,本文主要内容关键词为:神经网络论文,哲学论文,BP论文,此文献不代表本站观点,内容供学术参考,文章仅供参考阅读下载。

中图分类号:N02文献标识码:A文章编号:1003-5680(2008)04-0020-06

可能没有哪个学科能如人工神经网络一样受到如此多学科的关注。它的出现不仅对于人工智能,而且对于心理学、语言、神经生理学、哲学都具有重要意义。目前,神经网络模型有上百种,其中,误差反向传播神经网络(Error Back Propagation Neural Network),简称BP神经网络,应用最为广泛和成功,它具有强大的非线性映射能力,在处理非线性复杂问题方面具有特殊的优势,在工程、金融、医学、语言学等众多领域都有重要应用,众多认知科学都以它为模型进行探讨和分析。其联结主义工作范式不仅推动了人工智能研究的范式转换,而且具有重要的认知意义,为认知心理学、语言学等学科联结主义范式研究。带来了现实的可操作模型。文章基于对BP神经网络的历史发展和基本思想考察的基础上,对其工作范式及相关哲学问题进行思考和分析。

一 BP神经网络的历史发展

神经网络研究可追溯到19世纪末20世纪初,源于心理学、物理学、神经生理学的跨学科研究。早期研究主要着重于有关学习、视觉和条件反射等一般理论,并没有包含有关神经元工作的数学模型。1943年,美国心理学家麦克洛奇(Warren McCulloch)和数学家匹茨(Wallter Pitts)提出了第一个神经元的数学模型(MP模型),开创了人工神经网络的研究。这个模型具有重要意义,一直沿用到今天,直接影响了这一研究领域的全过程。1949年,心理学家赫布(Donald Hebb)提出了著名的Hebb学习法则:如果两个神经元都处于兴奋激活状态,那么,彼此的突触连接就会得到增强。这一法则告诉人们,神经元之间突触的连接强度是可变的,这种可变性是学习和记忆的基础。Hebb法则为构造有学习功能的神经网络模型奠定了基础。

1958年,计算机科学家罗斯勃拉特(Frank Rosenblatt)在原有MP模型的基础上增加了学习机制,做出了最早的人工神经网络模型,即感知器。罗斯勃拉特证明了两层感知器能够对输入进行分类,并且提出了带隐层处理元件的三层感知器这一重要研究方向。但是,他未能找到比较严格的数学方法来训练隐层处理单元,而且其感知器也只能进行简单的线性分类。1960年机电工程师维德罗(Bernard Widrow)和霍夫(Marcian Hoff)引进了最小均方算法(LMS),并用它构成了ADALINE神经网络,他们针对输入为线性可分的问题进行了研究,得出期望响应与计算响应的误差可能搜索到全局最小值,他们还对三层网络进行过尝试,但仍给不出数学解。后来的BP神经网络正是沿着他们的道路继续前行,在他们的思想基础上有了重大突破。

1969年,作为人工神经网络创始人的明斯基(Marrin Minsky)和佩珀特(Seymour Papert)合作出版了《感知器》一书,论证了简单的线性感知器功能有限,不能解决如“异或”(XOR)这样的基本问题,而且对多层网络也持悲观态度。这些论点给神经网络研究以沉重的打击,很多科学家纷纷离开这一领域,神经网络的研究走向长达10年的低潮时期。同时,导致神经网络走向低潮的另一原因是20世纪70年代以来,集成电路和微电子技术的迅速发展使传统的冯·诺依曼计算机进入全盛时期,很多研究神经网络的科学家都转向基于逻辑符号处理方法的人工智能研究领域。

70年代末,传统的人工智能的局限日益显露,在感知能力上与人的自然智能差距很大。人能够迅速识别和判断许多复杂事物,能从记忆的大量信息中快速提取需要的信息,而且人具有自适应、自学习以及创造知识的能力,这些都是传统计算机遥不可及的。因此人们又重新将目标转向神经网络的研究上,试图通过对人脑神经系统的结构和信息加工方式的研究寻求计算机的记忆和学习能力,从而能够解决一些复杂性问题。1982年,美国生物物理学家霍普费尔德(J.J.Hopfield)提出一种新的模型——Hopfield网络模型,首次引入能量函数的概念,使神经网络的平衡稳定状态有了明确的判据方法,并于1984年提出了网络模型实现的电子电路。Hopfield的模型不仅对人工神经网络的信息存储和提取功能进行了非线性数学概括,提出了动力方程和学习方程,还对网络算法提供了重要公式和参数,使人工神经网络的构造和学习有了理论指导。在Hopfield模型的影响下,大量学者又被激发起研究神经网络的热情,积极投身于这一领域。然而,霍普费尔德的研究成果仍未能指出明斯基等人1969年论点的错误所在,要推动神经网络研究的全面开展必须直接解除对感知器——多层网络算法的疑虑。

1986年,鲁姆哈特(David Rumelhart)等人提出的BP神经网络是神经网络发展史上的里程碑。鲁姆哈特等学者在《平行分布处理:认知的微观结构探索》一书中,完整地提出了BP算法,系统地解决了多层网络中隐单元连接权的学习问题,并在数学上给出了完整的推导。BP算法是一种反向传播学习算法,它从后向前修正各层之间的联接权值,可以求解感知器所不能解决的问题,从实践上证实了人工神经网络有很强的运算能力,否定了明斯基等人的错误结论。事实上,韦伯斯(Paul Werboss)、赫屯(Geoffrey Hinton)、威廉姆斯(Ronald Williams)、帕克(David Parker)以及杨·李·存(Yann Le Cun)之前分别独立地发现了这个算法,但都没有受到重视,这个算法因被包括在《并行分布式处理》一书中而得到普及,这与鲁姆哈特领导的PDP小组卓越的研究工作是分不开的。标准BP神经网络具有收敛速度慢、容易陷入局部极小值等局限性,国内外许多学者对其提出了很多改进措施,如增加动量项,可变学习速度的反向传播、学习速度的自适应调节等,使其不断完善。BP神经网络由于其极强的非线性映射能力迅速在各领域得到广泛应用,是目前发展较成熟、应用最成功的神经网络模型之一。

二BP神经网络基本思想

BP神经网络是误差反向传播神经网络的简称,它由一个输入层、一个或多个隐含层和一个输出层构成,每一层由一定数量的神经元构成。这些神经元如同人的神经细胞一样是相互关联的。其结构如下图所示:

BP神经网络结构图

生物神经元信号的传递是通过突触进行的一个复杂的电化学等过程,在人工神经网络中是将其简化模拟成一组数字信号通过一定的学习规则而不断变动更新的过程,这组数字储存在神经元之间的连接权重中。神经元是一个多输入单输出的非线性单元,它计算来自其他神经元的输入数据的加权和,通过该加权和的非线性函数输出一个数。网络的输入层接收输入样本信号,隐含层对输入信号进行加工处理,输出层输出处理结果。输入信号经输入层输入,通过隐含层的复杂计算由输出层输出,输出信号与期望输出相比较,若有误差,再将误差信号反向由输出层通过隐含层处理后向输入层传播。在这个过程中,通过梯度下降算法对神经元的权值进行反馈调节,将误差分摊给各层的所有单元,从而获得各单元的误差信号,以此误差信号为依据修正各单元权值,网络权值因此被重新分布。此过程完成后,输入信号再次由输入层输入网络,重复上述过程。这种信号正向传播与误差反向传播的各层权值调整过程周而复始地进行,直到网络输出的误差减少到可以接受的程度,或进行到预先设定的学习次数为止。权值不断调整的过程就是网络的学习训练过程。通过学习,网络记忆了所学样本的特征,当输入未学习过的样本时,网络也能输出合适的结果。

BP神经网络的信息处理模式具有如下特点:首先,BP神经网络最主要的优点是具有极强的非线性映射能力。理论上,对于一个三层和三层以上的BP网络,只要隐层神经元数目足够多,该网络就能以任意精度逼近一个连续非线性函数。其二,信息分布存储。人脑存储信息的特点是利用突触效能的变化来调整存储内容,即信息存储在神经元之间的连接强度的分布上,BP神经网络模拟人脑的这一特点,将信息以连接权值的形式分布于整个网络,单个神经元和联结权值没有特定的意义,只有所有权值和神经元在网络中组成一个整体才彰显意义。其三,信息并行处理。人脑是一个大规模并行与串行组合的处理系统,BP神经网络的基本结构模仿人脑,如前图所示,信息在所有并行通路同时传递,因此可以同时调动大量神经元协同工作,提高了网络的速度和功能。其四,具有容错性。生物神经系统部分不严重损伤并不影响整体功能,BP神经网络也具有这种特性,网络的高度连接意味着少量的误差可能不会产生严重的后果,部分神经元的损伤不破坏整体,它可以自动修正误差。神经网络的这种容错能力对于智能化具有重要意义。其五,自学习、自组织和自适应。人脑具有很强的自适应与自组织特性,可以通过学习适应环境,后天的学习可以开发很多功能。BP神经网络也具有初步的自适应与自组织能力,在学习或训练中改变突触权值以适应环境,可以在使用过程中不断学习完善自己的功能,并且同一网络因学习方式的不同会具有不同的功能,甚至具有创新能力,可以发展知识,以至超过设计者原有的知识水平。BP神经网络的这些特点使得它在联想记忆、图像复原、语言处理、模式识别、优化计算等众多领域都有重要应用。其工作范式具有一定的发散能力,它不是一个封闭系统,这对于智能模拟极为重要。

三BP神经网络的工作范式

传统的人工智能基于符号主义工作范式,这种工作范式提供了这样的认知观,人与计算机一样是个物理符号系统,人对客观世界的认知基元是符号,可以通过逻辑以符号的形式将客观世界表达出来。符号主义沿袭经典科学线性分析的方法,是哲学中的理性主义和还原论的继承者,它主要表征用来能进行严格推理的确定性知识。当面对复杂系统时,这种线性分析的还原方法是有问题的,因为复杂系统内部关系呈现错综的非线性嵌套,简单的线性分割会消解复杂系统的复杂实在性。对于复杂系统需要用一种动态的、整体论的方式来解读,神经网络提供了这样一种范式。

神经网络的工作范式被称为联结主义,其与传统人工智能的工作范式有着变革性的不同。联结主义认为人类智能的基本单元是神经元,认知过程是由神经元构成的网络的信息的传递,这种传递是分布并行的。联结主义试图从大脑神经元的智能活动基础上进行人工智能研究,认为人的思维基元是神经元,要进行人工智能研究就要研究大脑的结构和工作方式。神经网络的联结主义工作范式是对大脑信息处理方式的简化、抽象和模拟。目前普遍认可的大脑的功能和特征有:大脑是一个由神经元联接的巨型复杂系统,有大约10[12]个神经元,其不同的联结方式至少有6×10[13]种以上;大脑中的信息处理是建立在神经元之间大规模并行分布式信息传递基础之上的;大脑具有很强的容错能力和联想能力,而且善于概括、类比、推广;大脑具有很强的自学习、自组织和自适应能力,在其后天的经历、学习、训练和环境作用中可以获得各种不同的功能。BP神经网络就是在这些层面上对大脑的模拟,它认为应该像大脑一样,认知应是在一定的执行语境中的能动反映。BP神经网络建模是自下而上的,是在环境中生成的。

BP神经网络采用分布式的信息表征方式。从上述BP神经网络的结构和算法,可以看到信息通过神经元之间错综复杂的拓扑结构连接起来的激活模式扩散在整个网络中,即信息被分布地表达于整个网络相互连接的权重之中,单个神经元和权重本身没有特定的意义,只有与网络组成一个整体才彰显其意义,如果想要提取信息必须将相关神经元全部调动起来。如同人脑的认知一样,单个脑神经细胞并不存储特定的信息,信息被分布地储存于大脑的众多神经元中,认知是整个大脑协调活动的结果。BP神经网络的这种分布式的信息表征方式与传统数字计算机计算解题的程序化方式不同,程序化方式要求它所表征的问题必须有着清晰的理论构架,因为它采取的是符号表征,计算机运用分散、孤立的二进制储存单元储存词和句的意义、有组织的指示乃至整个“语义网络”,特定的符号表征特定的意义,整个体系是精确的,是严格推理的。而BP神经网络的分布式表征以隐含的方式对大量复杂因素进行非线性分布式编码,当网络规模足够大时,系统的信息可以充分地充斥于网络的权值中,网络将有充分的冗余保证所有因素同时进行编码,网络因此具有容错性。分布式表征不再具有传统符号表征决定论的特征,而是整体的、动态的和关联的。

BP神经网络的这种分布式表征方式解构了经典意义上的逻辑规则,它以隐含的方式表示知识,不再具有明确的定义和界限,一切都变得模糊、捉摸不定却又自如地在发挥作用,它解构了传统符号表征理论所必须遵守的硬性逻辑规则。在线性系统中,其结构是可以明晰的,可以用特定的符号表征特定的意义,是有逻辑基点的,而且特定的结构必然发挥着特定的功能,所以这个系统是有规则的,有中心控制的,只要寻到这种规则和控制,就可以指导对系统的程序化编写。而神经网络主要面对的是非线性复杂问题,非线性复杂问题结构错综复杂,无从考察,自然对其表征也就不能进行明确地定义,也就是说无法确定逻辑基点。系统结构无从考察,也就找不到其内部中心控制规则,或者说它或许根本就没有中心——每一要素都可能是重要的或者也可能不是至关重要的,因为每一要素的变化都可能会引起意想不到的后果,也可能被其他要素制约而对系统没有什么影响。非线性复杂问题不是没有规律,而是规律太多,互相牵扯,无法明晰。神经网络认为如果系统复杂到根本无法找到其幕后操纵规律的时候就干脆放弃规则,放弃中心。不过神经网络的学习过程并不是杂乱无章的,它用一种软规则的方式组织系统运行。

BP神经网络以整体论的方式来存储和提取信息。传统计算机的符号表征方式是按局部存储的原理来存储信息,并按时间串行的原理来搜索信息。而在BP神经网络中,系统的整体信息以连接权重的形式被分散地分布于整个网络中,权值在网络中通过非线性函数的相互复合模拟着复杂非线性系统内部错综复杂的关联,信息的提取必须调动整个网络。神经网络一方面将其表征的对象作为一个整体对待,不再寻求结构的解析,另一方面将自己同样置于这样的语境中,整体地去模拟,这种模拟从传统的结构分析转移到了关系探寻。也就是说,BP神经网络放弃了对系统真实结构的解构,而注重系统的内部关系和功能,用虚拟的结构去模拟真实的关系和功能。强调以关系为中心,着眼于网关系而不是点事物。复杂系统之所以复杂就在于其整体突现性,整体大于部分之和,即复杂系统是非加和的,因此用分析还原的方法去解复杂系统问题,必然破坏系统关联的复杂性,既无法揭示系统的整体特性,也无法还原真实系统本身,而BP神经网络关系整体论的系统思想则有利于模拟系统的复杂涌现性,为复杂问题的解决提供了一种可供选择的方法。

BP神经网络以自组织的方式处理信息。BP神经网络虽然由大量非线性要素复杂地构成,虽然放弃了传统意义上的逻辑规则,但并不是杂乱无章的,整个结构却是进化的,这种进化是通过自组织实现的。传统的符号表征的程序化解题方式是他组织的,因为其表征的主要是结构性规则系统,可以抽象出逻辑规则,进而组织程序编写。而在非结构复杂系统中,对规则的抽取是困难的,因此,BP神经网络通过对样本的学习,通过对环境的自适应进而自组织地进行信息处理。BP神经网络最初先选择一簇初始权值,然后在逐渐地学习或训练中自我更新,调节突触权值,最终进化到所需要的目标,其演化过程的自发性来自于系统内部的交替因果性,输入信号经过网络产生的结果误差信号又作为原因反馈回网络,产生的权值修正结果又成为网络改进的动因,由于这种自反馈,交替因果性不断地循环反复,使系统能够对其自身内部的关系进行不断地自我调整。可见,BP神经网络的信息处理过程是一个从无序到有序的过程,整个网络的权值不断地在自我调整中变化,从而使网络的整个结构在不断的对称破缺中形成新的有序结构。

BP神经网络是一个动态的开放模型。传统计算机的符号处理系统是一个静态的封闭系统,特定的符号表征特定的意义,特定的程序只能具有特定的功能。而复杂系统是一个动态的开放系统,具有许多不确定因素,因此对它的表征自然就不能遵循传统的静态的确定的知识表征方式。BP神经网络提供了一种在动态中进行的“活”的、开放的模型,它并不依靠外界强制性规则,不是站在高于要解决问题的层次上,而是将自己置于系统中,用环境来选择网络的结构关系,通过自身与环境充分的信息交换来实现对复杂系统的表征。BP神经网络的这种试错式的信息反馈认知模式提供了一条对复杂系统的动态认识路径,更接近于人的由模糊到精确、由低级到高级的进化认知模式。正是由于这种动态性和开放性,使得神经网络具有学习能力,它可以通过对已知样本的学习总结规律,从而对未学习过的样本做出正确判断。

四 BP神经网络的认知启示

从BP神经网络的结构和算法可以看出,它以对大脑的结构和功能模拟、整体还原的研究策略为其方法论,通过对大脑结构模型的研究来探索认知过程的本质。不同于符号主义以离散的物理符号来表征较高级的概念,BP神经网络试图模拟概念形成前的低层次的信息处理过程,即模拟生物神经元突触递质的传递,其信息处理具有连续性的特点,并且信息的传递是分布并行的,更接近于大脑的信息处理方式。可以发现一件有趣的事情,符号主义是基于人类智能的功能来模拟系统的结构,而神经网络的联结主义范式是基于人类智能的结构来模拟系统的功能。BP神经网络的最直接的优点是与大脑认知具有一定的相似性,如非线性、容错性、学习性,等。

非线性是人脑认知的重要特点,人脑神经元信息的传递是一个复杂的电化学过程,BP神经网络虽然无法模拟这种复杂程度,但是它正视这种复杂性,不再寻求简单的抽象。其神经元是一个多输入单输出的非线性单元,传递函数一般采用S型函数f(x)=,S型函数是一个连续可微的非线性函数,比较接近于人脑神经元的输入-输出特性。[1]当所有的神经元通过一定的拓扑结构联系在一起时,各个单神经元的非线性函数通过分布式关联而数次复合,这种复合使得网络由多个S型函数最终复合成为复杂的非线性函数,这种函数划分的区域是由一个非线性的超平面组成的区域,它是比较柔和、光滑的任意界面。这种划分比线性划分精确、合理,而且有较好的容错性。人类大脑就是在对错误的不断反馈中进行学习的,BP神经网络也是在对误差的不断反馈中修正网络权值,进而总结规律。BP神经网络的这种学习能力与人的认知具有一定的相似性,它是在基于对样本学习的基础上,记忆样本的特征值进而进行联想学习。

当然BP神经网络的认知只是一种人类认知的低层次的模拟,其反向传播的权值修正学习并没有神经生理学上的支持,而且目前还没有突破性的进展,但它推动了人们对认知的深层思考。神经网络的模拟无论达到如何复杂的程度,终归是基于认知可计算理念的基础上,基于物理主义的信念。如果人脑的信息处理只是一个电化学过程,还是可以给人以模拟的信念的,但事实上,并不是这么简单,人脑的信息处理还涉及到心理、意向等问题。如果认知是可计算的,那么大脑和计算机将具有一种通约性,我们知道人脑神经元之间传递脉冲信号的速度虽然远低于冯·诺依曼计算机的工作速度,但人脑是一个大规模并行与串行组合的处理系统,因此,如果人脑认知是基于物理计算,那么,就应该具有比计算机高的计算速度,而事实上,人脑在数字计算能力上是无论如何都无法与计算机相媲美的,这说明人脑并不是一个物理计算系统。同样,虽然是基于大脑信息处理方式的模拟,但神经网络究竟能在多大程度上模拟人类的认知问题,是一个涉及到意向性的问题。

如果给BP神经网络的输入端输入2,让输出端输出4,输入端输入3,让输出端输出9。那么BP神经网络会总结出规律,这是在计算一个数的平方,然后输入其他的数就会将其平方值输出。因此有人认为某种程度上神经网络模拟了人类的意向性。但是在这里重要的是BP神经网络只是总结出了平方这个信息关系网络,并没有总结出平方这个概念,它似乎模拟了人脑微观层次的信息处理方式,却无法宏观地将信息进行分析和概念结晶。人类的认知由开始散乱的信息最终可上升到逻辑层次,而神经网络做不到这一点。因此,近年来,神经网络与符号主义相结合是一个重要的研究趋势。但无论是符号主义还是联结主义都是基于物理主义的信念,符号主义将心灵隐喻为计算机,认为人的认知基于语言符号,心理活动就如同电脑的程序运作,而联结主义将心灵隐喻为大脑,大脑信息的流通可以产生心理意向。联结主义比符号主义更接近于人的微观认知,神经网络实际上支持了一元论和突现论的观点,认为心理活动是神经活动的结果,意识是从神经活动中突现的。但是如何突现,神经网络说不清楚,它虽然可以在学习后对未训练过的样本输出正确的结果,但这其实仍然是一个机械操作的过程。即便是它与符号主义相结合,可以进行概念总结,但终归摆脱不了机械论的内在缺陷。

五 BP神经网络中的语言逻辑问题

近几十年来,在逻辑方面,可能没有哪个领域比人工智能取得的成果更为显著,更富有挑战性。人工智能符号主义的基础是数理逻辑,数理逻辑的基础是形式语言,它以形式语言为材料,以形式公理系统为推理工具。数理逻辑的这种形式化体现了20世纪西方的逻辑学理性主义思潮,它几乎排斥除演绎以外的其他逻辑方法,这种形式化完全排除了自然语言的歧义性、隐喻性、丰富性和多样性。[2]1931年正是形式化大师歌德尔以他的不完全定理指出了形式化的局限,在一个充分大的形式系统中,系统的一致性和完全性是不能同时满足的。[3]歌德尔的不完全定理说明对于复杂系统的认知是不能依靠形式化方法来解决的。BP神经网络的联结主义工作范式颠覆了这种形式化,它立足于对复杂系统的认知,抛弃了传统形式化和演绎化的逻辑体系。在符号主义的逻辑系统中,语义蕴含在符号中,符号所表征的概念是逻辑的出发点,其哲学基础是理性主义和形式主义,表现出唯理论和先验论的特征,它是一个封闭的逻辑体系,结果蕴含在前提中。而在神经网络的逻辑系统中不再具有明确的逻辑轨迹,语义蕴含在网络结构中,其在自组织学习和演化中总结经验,从而可以对未学习过的样本做出正确判断,它是在逻辑下的一种亚逻辑探索。神经网络中的逻辑问题为认知逻辑研究提供了重要案例。

认知逻辑是由现代逻辑与认知科学的相关学科产生出来的逻辑理论,包括哲学逻辑、语言逻辑、心理逻辑、文化与进化的逻辑、神经网络方法与网格逻辑。[4]具体地说,神经网络为基于以莱考夫为代表的经验主义认知语言学的第二代认知逻辑提供了现实的案例支持。第一代认知逻辑是基于乔姆斯基唯理主义的认知语言学,乔姆斯基语法体系是当代计算机科学和计算机语言学的重要基础,其生成式语法体系是符号分析方法的里程碑,他认为生成式语法能够结构性地生成自然语言的所有表达式。而第二代认知逻辑与此不同,“心智是涉身的”、“思维是无意识的”、“概念是隐喻的”,这是莱考夫表述的第二代认知语言学的经验主义基础,它强调感觉经验应该进入逻辑学的视野,否认演绎推理的至尊地位,非形式化和非演绎化是它区别于其他逻辑理论的重要特征。[2]BP神经网络的分布式表征可提供强有力的感觉表征,对形象思维的模拟具有独特的优势,它比形式语言能更好地表征复杂非线性问题,它没有明确的逻辑轨迹,其信息处理方式不再具有传统的形式化和演绎化的特征,具有很大的灵活性。

此外,BP神经网络在语言习得方面具有重要应用,即利用BP神经网络模型从语言输入输出中反复出现的现象抽绎出概率型式,它们因反复被激活而逐步强化,由此习得语言。鲁姆哈特和麦克莱兰用BP神经网络从英语动词的现在时生成过去时,在学习阶段,英语动词现在时的音位表征提呈给网络的输入层,在输出层得到过去时,网络在权值调整过程中捕获了包括规则和非规则动词的大部分特征,而且网络可以对先前未曾遇到过的动词做出适当的反映。其学习训练更接近于人的自然认知过程,网络的运行类似于小孩获得过去时态的方式。一个小孩最初仅仅知道少量的经常使用的过去时态动词,其中不规则的动词也可以被正确地使用。然后,他开始注意某些模式,出现了过度规则化的过程,使用的动词越来越多,以前正确使用的不规则动词现在也被规则化了。再后来,他注意到了这种差异,规则形式和不规则形式被正确使用。鲁姆哈特和麦克莱兰用BP神经网络模仿了这三个阶段,网络通过对直觉经验的表征和处理,自行总结规则。[5]可以说BP神经网络试图模拟高级语言生成前的基于脑神经基础上的内部逻辑,它处理的是尚未结晶或升华为语言表达出来的概念。

标签:;  ;  ;  ;  ;  ;  ;  ;  ;  ;  ;  ;  ;  ;  ;  ;  ;  ;  ;  

BP神经网络的哲学思考_神经网络模型论文
下载Doc文档

猜你喜欢