第二次AI浪潮中的技术支撑是?

如题所述

人工智能发展的第1次热潮,从1956年一直持续到70年代前期。这一时期研发的专家系统等人工智能系统,因受到计算机处理性能的制约,只能处理一定数量的规则,并且是在特定的领域、特定的环境下才能够发挥作用。

人们在对人工智能充满期待的同时,对研发出来的缺乏实用性的系统也充满了失望,因此,国家以及企业在人工智能方面的预算也越来越少。这一时期,也就是20世纪70年代后期被称为人工智能发展的“ 第1次低谷”。

但是,进入20世纪80年代后,人工智能很快再次迎来了新的发展热潮。

本次发展热潮的主角是在第1次发展热潮时诞生的专家系统。因处理美国迪吉多公司(DEC)的VAX系统的各种订单并取得非常成功的专家系统受到广泛关注,各IT供应商迅速导入专家系统。

人工智能发展迎来第2次热潮,最大的一个原因在于计算机性能的大幅提高。进入20世纪80年代,基于复杂规则的专家系统也可以在计算机上运行。由此,逐渐实现了专家系统的商业性使用。

随着专家系统的兴盛,制定专家系统运行规则的工程师也被称为“知识工程师”,并且一时间成为炙手可热的职业,就像在今天,数据科学家这个职业相当流行,受到人们的追捧。

知识工程师的主要工作是听取用户的业务内容并对其进行分析,从中抽出明显的规则与隐藏的规则,然后进行分类。

当时,科学家们研发出了各种专家系统。初期的各种专用专家系统大都是利用LISP编程,随着技术的革新,慢慢地发生了变化,通用的引擎部分依然利用LISP编程,规则部分则是知识工程师利用外部数据进行编程。并且,用LISP编程的引擎部分,利用C语言进行编程的开发研究也已经展开了。

专家系统的编程由专用LISP语言向普通的C语言过渡,该系统也变成了一般的程序员编写的一般系统,其新意也就逐渐淡化了。

由此,专家系统也就从人工智能程序变成了决定论式的普通程序。随着这一变化,专家系统的作用效果也变得非常明确,但是其发展瓶颈也开始显现出来。



人工神经网络的发展

在人工智能发展的第2次热潮中,人工神经网络也发生了很大的变化。第1次发展热潮时,马文•明斯基等就已经指出,仅凭简单的人工神经网络还有很多无法解决的问题。为了解决这一大难题,多层化的人工神经网络开始受到关注。但是,如何实现多层人工神经网络的自我学习,还没有一个固定的模式。

之后,被称为反向传播(Backpropagation)的算法问世,打破了这种僵局的持续。反向传播是人工神经网络的一种自我学习算法,基于这种算法,多层人工神经网络的机器学习实现了定式化。该算法通过在输入层和输出层之间设定一个中间层(隐藏层),以反向传播的方式实现机器的自我学习。

基于反向传播的形式逐渐形成固定的模式,人工神经网络的发展也进入了兴盛期。线性不可分的问题也开始得到解决,人工智能也实现了进一步的发展。

在人工智能的第2次发展热潮时,笔者有幸参与了作为人工智能机的LISP专用机的研发工作。LISP专用机,也就是一种被称为“AI工作站”的新型计算机。当时,各企业都争相研发各种人工智能专用机,一时间,形成了一股热潮。

人工智能专用机诞生之初的价格大约在1000万日元,之后价格急速下降,使得人工智能专用机在一定程度上得到了普及。在人工智能专用机上运行的程序就有专家系统。可以在人工智能专用机上直接编写专家系统,也可以先编写通用的专家系统,然后再将各种规则编入系统中。

温馨提示:答案为网友推荐,仅供参考
第1个回答  2020-07-28
继移动互联网之后,我国人工智能浪潮开始掀起.在中国人工智能学会近日召开的"2015第五届中国智能产业高峰论坛"上,多位院士,专家解读了人工智能,互联网和智能制造的趋势...
相似回答