人工智能类脑学习是否是终极算法论文_杨晓丹

人工智能类脑学习是否是终极算法论文_杨晓丹

国防大学政治学院军政训练系 杨晓丹

【摘 要】人工智能的研究和应用,在多个领域取得了快速进展。这得益于大数据和深度学习的有力支持。 大数据的支撑和超级计算机强大算力的普及化,有了今天深度学习的成功。但是靠一系列面向特定任务的算法和庞大子系统进行组合形成的智能体,当然可以在一定程度上具有智能,但要达到通用AI、超AI的水平不可行。

【关键词】人工智能;数学算法;机器学习;能力

人工智能的研究和应用,从语音识别、图像分类到基因组学和药物发现等多个领域取得了快速进展。这得益于大数据和深度学习的有力支持。可以说,近期AI多是数据驱动的AI,没有大数据的支撑、没有超级计算机强大算力的普及化,就没有深度学习的成功。大数据与AI形成一种共生关系。那么,要实现真正的AI,是否需要一种终极算法?我认为,终极算法是为了解码人类智能的本体、本源和统一机理,靠一系列面向特定任务的算法和庞大子系统进行组合形成的智能体,当然可以在一定程度上具有智能,但要达到通用AI、超AI的水平,个人认为这条路不可行。

首先我们看下传统算法、机器学习算法和终极算法三者的区别:

传统算法:将数据输入到计算机,计算机利用设计好的算法来进行计算处理,最终输出需要的结果,比如金融自动交易,需要设计算法实现交易公式、规则的计算,输入数据按照设计好的规则进行计算处理和结果输出。

机器学习:机器学习算法不需要通过编程设定计算规则,而是把数据直接输入到模型中(包括输入数据和标签输出数据),模型经过训练获得预测优化的参数,最终构建好具有一定预测能力和稳定性的机器学习模型

终极算法:终极算法的一个前提假设是——所有知识,无论是过去、现在还是未来的,都有可能通过单个通用学习算法来从数据或环境中获得,这种算法称为终极算法。机器学习算法的首要任务是区别可以预测的事与不可预测的事。终极算法的目标则是学习一切能够认知的东西,在机器学习中,复杂性存在于数据中,而终极算法要做的就是通过拟合数据或抛开数据和环境交互来消化理解这种复杂性。

人脑由一千多亿个神经细胞(神经元)交织在一起的网状结构组成,其中大脑皮层约140亿个神经元,小脑皮层约1000亿个神经元。神经元约有1000种类型,每个神经元大约与100个其他神经元相连接,形成极为错综复杂而又灵活多变的神经网络。人的智能行为就是由如此高度复杂的组织产生的。浩瀚的宇宙中,也许只有包含数千亿颗星球的银河系的复杂性能够与大脑相比。很多学科的研究人员试着从不同角度解码人脑的智能,人工智能从一开始就试图模拟、延伸和扩展人类智能,但迄今为止大部分AI研究成果还仅仅只能从行为上模拟部分智能。如何从更深入的机制上探索智能的本质及其计算实现的机理,是神经计算与类脑学习面临的主要挑战。对未来终极算法的设计实现,目前学术界有三种重要的类脑学习方法,也许能给我们一些启示。

第一类:大脑新皮层

Jeff Hawkins在其2004年出版的著作《On Intelligence》中,提出了一种大脑皮层运作的记忆-预测框架。阐述了大脑皮层框架运作的核心原理,提出了一种新皮层的理论,用以建立一种基于空间-时间记忆流模式的智能预测架构,而且设计实现了分层皮质学习算法(HTM)。Jeff Hawkins的大脑皮层理论框架与算法,目标很宏大,直指人类学习的终极算法。其中有几个主要理论值得与大家分享:

1、“大脑新皮层是一个分层的架构。在分层中的每一层或者区域,又是由密集包裹着的细胞组成的多个层。当感知信息到达大脑新皮层时,它穿过了分层架构中的各个层。在这些区域的细胞变得活跃,逐步对输入进行抽象,得到不变的特征。然而,在架构的最底层的细胞对输入的简单的特征做出了最优的反应,离架构顶层最近的细胞则对高层次的概念做出反映,比如对外表、语言、动作等。”——这跟当前深度网络的逐层学习思想是一致的。

期刊文章分类查询,尽在期刊图书馆

2、“令人吃惊的是,在大脑新皮层中的区域,无论它们驻扎在什么地方,无论它们处理什么类型的感知信息,它们几乎都相同的结构。视觉区域类似于听觉区域,也类似于语言区域。大脑新皮层完全使用了通用的机制。通过了解这些机制,我们能够模拟它们,并将它们应用运用到学习、推理、预测等多种问题中。尽管基于HTM理论还无法捕捉到大脑新皮层完整的复杂结构及学习机制,但是它已经足够强大到来解决一些困难且有商业价值的问题了。”——这点也许能解释为什么深度学习能如此有效。

3、“HTM是一个记忆系统,随着时间变化,它通过给它的感知数据来学习它的世界,并从数据中抽象出高层的概念。抽象允许HTM网络来进行一般化(generalize),并对于传统计算机编程处理的严格规则提供灵活性和效率。例如,在不完整或是模糊不清的数据呈现中,模式能够被学习并识别出来。通过组合模式学列的记忆与当前的输入,HTM网络能够预测下一步可能发生什么。反过来,这种预测能够使用在从猜测可能的结果到检测欺诈等一系列的认知活动中。”——这点出了深度学习未来的潜力,特别是跟记忆的融合。

可以看出Jeff Hawkins在13年前就提出的大脑新皮层理论框架,与当今大火的深度学习有着异曲同工之妙。不过在具体算法实现上与深度网络有较大差异,不过整套理论的核心思想就是要实现解码智能的终极算法,潜力如何还有待观察。

第二类:深度学习与强化学习

深度学习专家们讲得比较多,值得一提的是,深度学习的类脑模拟研究还很初级,神经计算和深度学习的交叉融合其实还远没有开始。深度学习的加层机制来源于对人类大脑视觉分层处理的理解,而原人工神经网络也只是很初级的模拟了人脑神经元的连接和激活。人脑实现学习、记忆、推理、情感等能力的生化神经网络运行原理我们根本都还知之甚少,但是,深度学习加减层、加减神经元、加减链接、跨层跨连接等这些简单的网络构建方法却是跟人脑的运行机制有类似的地方,幼儿到成人神经元数量在增加、学习和记忆能力提升是神经元之间链接的建立和加强,而能力衰退也对应于神经元链接的断裂等等…

可以说,深度学习在借鉴大脑神经网络原理和人类认知过程方面,也许还没入门,还有很多问题需要深入挖掘和拓展。比如让Deepmind情有独钟的强化学习,与深度学习强强联合之后,在很多智能研究中大放异彩。强化学习的主要目的是帮助模型形成从环境到行为映射的学习,这种学习方法不是告诉系统如何产生正确的动作,而是通过评价产生动作的好坏来不断迭代改进学习能力,从而找到问题的最优解。而且强化学习在一定程度上能解决深度学习严重依赖大数据的问题。

总之,未来终极算法的诞生,可能是多种学习方式的深度交叉融合,机器的情感、记忆推理等高级智能,将会由基于深度特征学习和加装存储记忆、推理模块的迁移学习、强化学习、对抗学习等各种学习方式的交叉融合而实现,未来的机器学习方式可能远不只这几种,其本质都是在模仿人类的学习方式。迁移学习代表了我们的进化过程,学习的举一反三、触类旁通、强化学习、对抗学习等,以深度学习思想为主线的算法和框架技术将极大地拓展各机器学习的深层功力。

严格来讲,传统规则式AI系统还称不上智能,而现在的深度学习也只是大数据驱动的初级智能。那么,究竟未来有没有非数据驱动的终极智能?换句话说,如果没有大数据,除了专家系统和规则式AI,人工智能要通用化,要达到SuperAI的水平,能否有所突破?这取决于终极算法的能力。规则式AI更多靠人工内置的经验和知识驱动,它最大的问题也是要人工介入,而且很难具有学习能力,靠的知识、记忆和经验建立的规则体系,这种不能自学习的符号AI正在逐步退出历史舞台。而强AI的目标是机器智能化、拟人化,机器要具有和人一样的能力,那就离不开记忆和经验,也离不开通过知识、经验和记忆建立起来的认知体系(经验规则、知识本体)。从这个角度讲,强AI要实现只靠深度学习、强化学习还不够,通过深度学习、强化学习进行环境基础知识的初步监督式指导学习或非监督自我体验学习,学习掌握的知识、经验必须要能存储和记忆,再结合大脑新皮层理论的时间-记忆流预测框架,在遇到新的问题之后,就能像人一样快速智能响应。这也许就是未来终极算法的融合诞生之路吧。

论文作者:杨晓丹

论文发表刊物:中国科技教育(理论版)2018年11月

论文发表时间:2018/12/4

标签:;  ;  ;  ;  ;  ;  ;  ;  

人工智能类脑学习是否是终极算法论文_杨晓丹
下载Doc文档

猜你喜欢