摘 要
神经网络是一门活跃的边缘性交叉学科,它在信息学中有十分重要的地位,并对第六代计算机的研究和设计起指导作用.本文首先对人工神经网络进行了简要的介绍,并对人工神经网络的发展历史和现状作了简单的描述。在本文的第二部分论述了人工神经网络在信息学中的地位、作用和重要性。
关键词 人工神经网络 信息学 人工智能
一、 人工神经网络简介
人工神经网络(Artificial Neural Network,简称ANN),或称神经网络(Neural Networks,简称NN)是由大量的、同时也是很简单的处理单元(称为神经元)广泛地互相连接而形成的复杂网络系统,它反映了人脑功能的许多基本特征,是一个高度复杂的非线性动力学系统。神经网络具有大规模并行、分布式存储和处理、自组织、自适应和自学习能力,特别适用于处理需要同时考虑许多因素和条件的、不精确和模糊的信息处理问题。神经网络的发展与神经科学、数理科学、认知科学、计算机科学、人工智能、信息科学、控制论、机器人学、微电子学、心理学、光计算、分子生物学等有关,是一
门新兴的边缘交叉学科。
人工神经网络起源于20世纪40年代。早在1943年,心理学家McCulloch和数学家Pitts就已合作提出了形式神经元的数学模型,即MP模型,从此开创了神经科学理论研究的时代。1949年,心理学家Hebb提出了神经元之间突触联系强度可变的假设,即改变神经元连接强度的Hebb规则,为神经网络的学习算法奠定了基础。1957年Rosenblatt提出感知机(Perceptron)模型第一次把神经网络研究从纯理论的探讨付诸工程实践。1962年Widrow提出了自适应线性元件(Adaline),它是连续取值的线性网络,主要用于自适应系统,这与当时占主导地位的以符号推理为特征的传统人工智能途径完全不同,因而形成了神经网络、脑模型研究的高潮。到了20世纪60年代,人们发现感知器存在一些缺陷,例如,它不能解决异或问题,因而研究工作趋向低潮。不过仍有不少学者继续对神经网络进行研究。Grossberg提出了自适应共振理论;Kohenen提出了自组织映射;Fukushima提出了神经认知机网络理论;Anderson提出了BSB模型;Webos提出了BP理论等。这些都是在20世纪70年代和80年代初进行的工作。
进入20世纪80年代,神经网络研究进入高潮。1982年,美国物理学家Hopfield的工作被称为是突破性的,他提出了Hopfield神经网络模型,有力地推动了神经网络的研究。他引入了“计算能量函数”的概念,给出了网络稳定性判据。Felemann和Ballard的连接网络模型指出了传统的人工智能“计算”与生物的“计算”的区别,给出了并行分布处理的计算原则;Hinton和Sejnowski提出的Boltzman机模型借用了统计物理学的概念和方法,首次提出了多层网络的学习算法;1986年Rumelhart和McCelland等人提出并行分布处理(PDP)的理论,同时提出了多层网络的误差反向传播学习算法,简称BP算法。这种算法根据学习的误差大小,把学习的结果反馈到中间层次的隐单元,改变它们的权系矩阵,从而达到预期的学习目的,解决了多层网络的学习问题。BP算法从实践上证明神经网络的运算能力很强,可以完成许多学习任务,解决许多具体问题。BP网络是迄今为止最常用、最普通的网络。