第250章 消逝的礼包(1/2)
章杉知道在深度学习倾注再多精力也不为过。
关注人工智能领域是符合时代潮流的~
我们现在我们正处于人工智能的第三次浪潮。
从1956年达特茅斯会议上人工智能的诞生开始,到如今人工智能已经发展了59年。
这期间人工智能历经风雨,经历了数次高潮也有数次低谷,每次高潮都是因为核心技术的提出引起了人们极大的兴趣,吸引了大量的资金的投入。
之所以ai引人注目,简单说,人工智能学者们认为计算机和智能网络的这一深层的自动编码与解码过程同人的思维类似。
都是一个从数据刻画、抽象认知到优选方案的深度学习的过程。
由于人脑具有深度结构,认知过程是一个复杂的脑活动过程~
因而计算机和人工智能网络模拟从符号接受、符号解码、意义建立再到优化方案的学习过程也是有结构的;
同时,认知过程是逐层进行、逐步抽象的,人工智能不是纯粹依赖于数学模型的产物。
而是对人脑、人脑神经网络及抽象认知和思维过程进行模拟的产物。
探索自身从来都是人类的本能,通过对人工智能的研究人类能更加认清自己!
应该说,到目前为止,深度学习是计算机和智能网络最接近人脑的智能学习方法。
近几年来,深度学习进一步尝试直接解决抽象认知的难题,并取得了突破性的进展。
2013年4月,《麻省理工学院技术评论itngy revie 》杂志将深度学习列为2013年十大突破性技术之首。
深度学习引爆的这场革命,将人工智能带上了一个新的台阶,不仅学术意义巨大,而且实用性很强,工业界也开始了大规模的投入,一大批产品将从中获益。
……
而深度学习之所以产生,源于30年多来计算机科学、人工神经网络和人工智能的研究。
30年多来,加拿大多伦多大学计算机系辛顿教授(hton,g)一直从事机器学习模型、神经网络与人工智能等问题的相关研究,并在机器学习模型特别是突破浅层学习模型,实现计算机抽象认知方面取得了突破性的进展。
2006年,他在《science》上发表了《利用神经网络刻画数据维度(reducg thennalitynf data ith neuralnrks)》一文,探讨了应用人工神经网络刻画数据的学习模型,首先提出了深度学习(deen)的概念和计算机深度学习模型,掀起了深度学习在人工智能领域的新高潮。
章杉有幸拜读过这篇文章!
这篇文章的两个主要观点是
第一,多隐藏层的人工神经网络具有优异的特征学习能力,学习到的特征对数据有更本质的刻画,从而有利于可视化或分类。
第二,深度神经网络可以通过“逐层初始化”(yerisen)来有效克服训练和优解的难度,无监督的逐层初始化方法有助于突破浅层学习模型。
基于深度置信网络dbn提出非监督逐层训练算法,为解决深层结构相关的优化难题带来希望,随后提出多层自动编码器深层结构。
可以说在深度学习领域辛顿既是开拓者,又是奠基人。
2012年,辛顿又带领学生在目前最大的图像数据库ia上,对分类问题取得了惊人的结果,将计算机处理图像数据问题时排名前五的错误率(即5错误率)由26大幅降低至15,大大提高了人工智能图像数据处理的准确性和清晰度,这是早先计算机仅仅依赖数学模型的表层学习和单层学习根本无法实现的水平。
章杉之所以从来没接触过深度学习,却对深度学习了解的如此透彻
本章未完,下一页继续