人机与认知实验室

人机与认知实验室

    各位专家、各位来宾,辛苦了!请稍微允许我做一个简短的讲演,今天在中国的光谷人工智能的盛会上,我想奉献一个新一代人工智能产业推动的核心理论,这将是一个全新的人工智能的模型。在这里我想分三个部分介绍,一是人工智能所面临的重大危机和挑战,在大家对人工智能群情激扬的时候,我想泼一些冷水。第二可实现全面产化的SDL模型的构成,我们想以我们的算法抛砖引玉,我相信通过今天听到我们这个模型以后,我们在座每个人自己就能造模型。三是介绍一下SDL模型的应用展望。

    近年以来,阿尔法GO战胜了全人类的棋手,全世界为此震惊,可以讲,当今没有一项技术被全世界如此这么大的资源所关注,我们在座的每一个专家,我想也是群情激扬,立志在这一次人工智能高潮中建功立业,我想没有一个人不这么想的。但是,我们出问题了,人工智能的主流算法深度学习严重的破绽被发现了,所以说深度学习的发明者提出了我不干了,这个可能在座的大家都知道。为什么他出现破绽?简单讲我是20多年前曾经解决过大规模集成电路的组合问题,确实也是当时从算法上找不到,我也是跟今天的阿尔法GO同样的算法,通过概率,通过模糊关系,通过对抗学习,很成功的在当时仅16位的计算机上实现了相当大规模集成电路的组合。所以我今天看阿尔法GO,它其实就是一个算法,我们不要认为它是一个很神奇的东西,它所用的方法和二十多年前相差不了多少。所以我觉得我们还是有话语权的。

    面对人工智能殖民了,我们是不是眼前一片黑暗?不是,面对这种情况我们要重新的、冷静的审慎一下,有三个问题要大家搞清楚,第一我们要重新考虑究竟什么叫人工智能,可能大家最讨厌的就是这个问题了,我们已经讨论N次了,我说不是,我们到今为止就是追求有严密性,这是做教材、写书,我是搞应用,我是站在让这一代全产业应用人工智能。如果上一代人工智能特点是知识库、专家系统,这一代人工智能是机器学习解决概率问题。如果把这个概念讲清楚了,整个产业都会应用人工智能。

    第二,我们要感谢H,他在关键时候把人工智能的方向挑战过来了。人工智能要解决概率问题,不是用大模型解决小问题,所以这一次H提出要用概率模型,我非常要感谢他,如果我提出搞概率模型大家谁都不会信,但是他说搞大家都跟着他走。但是我们再不能盲目崇拜他了,说句实话他的深度学习我们已经经历了。如何看待H?我个人的观点是定义什么叫CapsNet理论,按照空间定义是三个条件,第一是网络结构,不要离开神经网络,从网络结构上还是要坚持,但是再也不要传统神经网络了,它是走不下去的。第二它是概率信息的传输,第三目前模拟大脑的结构是不可能的,我们模拟大脑的机能,我待会会介绍,如何模拟一个完整的大脑机能。

    第三,产业界不是光要图象识别、声音识别,我们机器当中有很多环节,今后在各个环节上都要用上人工智能。产业应用是各种各样情况的,各种各样情况要用各种各样的模型,各种各样的模型要靠我们在座的每一个人自己来创造模型。大家说中国宣布了四个大平台,大家很担忧,是不是又被垄断了,我马上回答说不一定,因为CapsNet的观念大家理解了,我们每个人都可以造平台了,你的平台没有人用了。

    下面我抛砖引玉,介绍一下我们新的模型,我们自己怎么造模型。这里面我们经过二十多年的发展,有两个比较重要的成果。第一,面对我们现在在人工智能当中所面临的数据,人工智能的是概率分布,是无数个空间关系问题,归根到底,人工智能要解决两个概率分布中间有一个数,这个数属于谁,这是最基本的问题。在这里就遇到了概率空间具体问题,大家也说了,概率空间距离数学家们搞了很多,但是今天咱们不讲这个问题,简单讲一下都没有走通,到最后都进行了某些化简,2003年日本一个学者自己又定义了一个模型,所以我们可以看出,从数学角度上想找到一个不同距离尺度的公式是非常难的。我们在大量的应用实践当中发现,作为一个数据,从欧几里得空间进入到概率空间的时候,它产生了什么误差,我们从这个角度找到了误差的表达公式,我们就构建了一个非常严谨的,在欧几里得空间的、各个概率空间之间的距离,我们看这个公式,如果仅看上面就是欧几里得的距离公式,下面得出的值是数据进入概率空间之后的误差,用这个简单的办法解决了实体当中的应用。

    再一个问题,如何解决无监督学习问题。大家都在议论,未来是小数据,是无监督学习,但是大家也认为无监督学习还需要相当长的时间才能出现。其实个模型二十年前就出来了,只不过我们没有公布,只是作为企业内部的诀窍,2004年才申报了专利。介绍无监督学习之前我们先谈一下,大家追求的机器学习都需要追求哪些方面,首先是要有强大性,所以我们未来的模型一定是处理能力,或者说我在处理精度上是可以无限深入的模型。另外,叫学习数据无限小、数据结果要无限大,以及提出一个系统当中的机器学习不是一个,是很多个分散系统,这样的话这个系统才海大。另外是适用性,手机也可以用。全系统的原理是透明的,没有黑箱问题。基于这样的理念我们搞的这个无监督学习,它实际上是一个迭代公式,用了一个概率的尺度,而不是欧几里得空间的距离。你给了若干个数据,它能得出一个最大概率的值,另外它可以给出最大概率的尺度,这个尺度就是神经元的法值。

    这就是全新的人工智能网络,大家会耳目一新的,这是以图象识别为例介绍的,这种新型神经网络有三层,第一是感知层,第二是神经层,第三是脑皮层,和大脑是一样的,我也征求了一下我国著名的哲学和复杂系的数学专家,他有一个三元理论,他说应该是符合三元的。但是这样的理论我们神经网络只有三层,目前我们理解能力范围内认为是三层。

第一层是感知层,我们发现感知层和图像之间就是无监督学习,它可以把给定的区域通过无监督学习得到特征值,另外无监督学习抽取信息的时候可以迁移,就是这种无监督学习可以随着概率的位置发生变化的时候自动迁移,所以这就是了CNN的特征映射。我们现在已经不是针对一个具体的位置进行学习了,而是抽取图像的若干个最大概率之间是什么结构,正如刚才IBM的老师介绍的,咱们固定的位置叫图象识别,我把它结构出来就变成了图象理解,你不用告诉它整体图象,你只需要给一部分就可以了。

    感知层和神经层干什么?因为我们要小数据,小数据一定要把对象的概率分布通过无监督学习学习下来,所以感知层和神经层之间的机器学习主要是学习概率分布,在最终结果的时候我们有三个结果,最初是完全按照人的大脑,当样本数据进来以后,让样本数据和已经学习的最大概率的值进行比对,比对的数据如果在概率分布的尺度以内,就认为这是对的,就输出1,这和咱们的大脑就非常接近,而且我们也是在大量的观察当中,就是人的脑在看一个图像,怎么看这个图像都不变,而我们现在用一个摄像机人不动的拍,拍出来也是十个样子,所以我们感觉到人的眼是固定空间的传感器,它观测到的是最大概率值,从这个角度讲它就可以使咱们的性能提高。

这个系统怎么样让它无限的深入?深度学习的无限深入是增加层,而我们是增加节点,甚至这一次CapsNet理论提出我有两个图象你能不能都识别?其实可以做几个并行的CapsNet层的一样的结果,它也可以分别学习图象,然后两个重合做一起,同样可以分别识别。今天时间关系,我就把这个模型讲清楚了,后面的应用我顺便说一下。

    因为这个模型比较强大,所以它识别的图象已经不用作为文件形式记录,可以直接变成代码,我们在2014年就申报了专利,把图象变成代码,同样可以把声音变成代码,把人脸变成代码。我们最近还有一个很新的成果,就是在这组模型基础之上,实现了多函数的、多目标的知识获得,这种技术如果用在现在的自动驾驶里面,可以把优良驾驶员的驾驶情况变成数据,今天我们也公布了,在各个目标函数下它的概率分布是什么,再通过机器学习我就可以在控制上做到超越优良驾驶员的驾驶水平。我想这样概念作为谷歌也好,作为百度也好,他们还没有理解到,其实自动驾驶竞争的核心、人工智能竞争的核心还是在这方面。

    最后我谈一下参加这个会的体会,我感觉到了武汉的领导、武汉的人工智能界的专家学者们对人工智能是非常重视,所以我既然被请来了,我也想为武汉作贡献,如果在座的学者们非常愿意投身到这种人工智能模型的开发上,在我们本身所面临的产业上的应用,不管需要我们提供什么技术支持,或者咱们一起共同研究,我们都是非常欢迎的,感谢大家!

 

来源:凤凰网湖北综合2017年11月20日 11:31

12-18 16:34