2000字范文,分享全网优秀范文,学习好帮手!
2000字范文 > 中国人工智能学会通讯——后深度学习时代的人工智能

中国人工智能学会通讯——后深度学习时代的人工智能

时间:2024-01-29 05:45:55

相关推荐

中国人工智能学会通讯——后深度学习时代的人工智能

1956 年,在美国达特茅斯学院举行的一次会议上,“人工智能”的研究领域正

式确立。60 年后的今天,人工智能的发展正进入前所未有的大好时期。我今天作的报告,将通过分析时代的特点,这个时代下人工智能与计算机的可能命运,来重新认识人工智能、认识我们赖以生存的计算机,还有我们自己。

后深度学习时代的前提

我们看到如今人工智能的春天又来了,不过和 30 年前日本兴起的人工智能热潮相比,发生了如下变化:时间不同、地点不同、主题也不同。这次人工智能的大发展与深度学习紧密相关,体现在:① 从知识情报处理到深度学习;② 从第五代计算机(日本提出的概念)到类脑计算机;③ 从大容量知识库到大数据;④ 从高速符号推理机到类脑芯片;⑤ 从自然语言理解到感知(机器人)。

与 30 年前的人工智能热潮相比,此次大发展的不同点还在于:一是大数据;二是概率统计方法(及其理论)。正是因为这两个因素催生了当前的深度学习大潮。可以说,大数据与概率统计方法共同推动了神经网络模型的创建和发展。特别是概率统计方法中的贝叶斯统计学,将它“引进”人工智能领域,促使人工智能发生了革命性的变化。

我们现在能够做深度学习,能够在几百万、几千万的参数下做优化,很多人都以为是计算机变快,其实不完全是,还要归功于概率统计方法的变化。这个变化使得我们现在能把深度学习做好。所谓深度,就是网络层数比较多。由于使用深度学习方法,把语音识别、图像识别等的识别准确度提高了 10% 左右,引起了深度学习的进一步发展热潮。

为什么呢?因为深度学习可以解决一些不能清楚表述的问题,也就是说“知其然,不知其所以然”的问题。第二个,它能针对不确定性的问题,针对不断的变化而不断的再学习。另外,深度学习还有一个完全改变传统神经网络的作用,它不仅仅做函数映射,更重要是能自动提取多层次重复的模式(特征),不依赖于人工设计的特征。使模式识别的能力达到新的高度。

可以这么说,深度学习可以帮助我们解决在给定的大数据情境下,在感知信息处理上,有可能达到人类的水平甚至超过人类。

后深度学习时代的人工智能

后深度学习时代的人工智能,就是要把人工智能从狭义的、只能解决一定范围内的问题,推广到更宽广的范围,这就是我们现在所谓的弱人工智能、强人工智能以及通用人工智能。这项工作面临三个主要挑战:

(1)第一个挑战是概率统计方法带来的困难。我们刚刚说过概率统计方法给人工智能带来革命性的变化,但是它也同时给人工智能带来极大的挑战,这也是来自概率统计本身的原因——它通过大量的数据,只能抽取出重复出现的特征,或者是数据中间的统计关联性;找出来的并不是本质上的特征、语义上的特征;找出来的关系,也并不都是因果关系,而是关联关系。也就是说深度学习区分物体的依据是重复的模式,而人类大脑区分物体的依据是语义上的特征,两者有本质的区别,当然存在一定的关联性。

(2)第二个挑战是生数据带来的问题。大数据有很多好处,但是大数据也带来很大困难。我们现在使用的大数据跟以前的海量数据不一样,其中大量的数据是生数据。网络采集的数据都是掺杂了很多噪声、虚假信息、垃圾信息等等,这种数据叫生数据。当前的机器学习方法对于生数据的处理,与经过预加工的数据相比,鲁棒性表现相对很差。

(3)第三个挑战是推广能力、领域迁移。当前的深度学习方法都是就事论事,都很难推广到不同领域,这也就是面临的主要挑战。我们要从一个弱的人工智能推广到强人工智能,必须要克服领域迁移的困难。

要解决前述的这些挑战,目前来讲可以考虑两种解决办法:一个办法是把人工智能中“知识驱动”与“数据驱动”这两个方法结合起来,因为这两个方法是互补的。其中,“知识驱动”跟语义挂钩,可理解;“数据驱动”是黑箱的方法,不可理解,但其优点是可以从数据中提取模型。知识驱动方法是用离散的符号表示,而基于数据驱动的深度学习方法是用高维空间向量表示,如果能把两种方法“沟通” 起来,有可能极大地推动人工智能技术的发展与应用。

另外一个办法是回到神经网络的本源。借助于人脑神经的工作机制研究,进一步推动深度神经网络模型的深入发展。

后深度学习时代的计算机

当前,对计算机有这么几个批评,一个是能耗大,一个是基于的串行处理。在这里,我先给大家吃一个定心丸:现代的电子计算机还需要在很长一段时间里依赖冯 • 诺依曼结构。现在大家讨论最热的话题一个是量子计算、一个是类脑计算。大家不要以为量子计算一出来,现在的计算机就完全不行了。实际上,量子算法目前只有一二种可用的算法,所以它不能完全代替现在的

计算机,就像量子通讯不能完全代替现在的通讯一样。我想给大家吃的第二个定心丸:现在讲的类脑计算,正确地讲叫 BrainInspired Computing,而不是 Brain-like。当前,连大脑的运行机制都没有研究清楚,怎么可能开展完全的类脑计算呢?类脑计算研究的开展,需要学科的交叉,我特别推荐数学、认知科学、心理学、神经科学和语言学等领域的学者积极开展交叉学科

研究,从而推动人工智能理论的进一步发展和创新。

(根据张钹院士在 CNCC 大会上所作的特邀报告《人工智能未来展望,后深度学习时代》整理)

中国科学院院士,教授,博士生导师,智能技术与系统国家重点实验室名誉主任。主要研究领域为人工智能、人工神经网络、机器学习等理论与技术研究。

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。