2012年至今 细数深度学习领域这些年取得的经典成果 (2012年至2024年多少年)
2006年,Hinton发表了一篇论文,AFastLearningAlgorithmforDeepBeliefNets,,提出了降维和逐层预训练方法,该方法可成功运用于训练多层神经网络,使深度网络的实用化成为可能,该论文也被视作深度学习领域的经典之作,从原理来看,深度学习与神经网络紧密相关,神经网络由一层一层的神经元构成,层数越多,神...。
曹颖 的两个基本原理 沈向洋提出理解 AI 不盲追大模型与堆算力!马毅 简约性与自一致性 (曹颖的两个基友是谁)
近两年,,大力,算力,出奇迹,的大模型成为人工智能领域多数研究者的追求趋势,然而,其背后巨大的计算成本与资源耗费问题也弊端渐显,一部分科学家开始对大模型投以严肃的目光,并积极寻求解决之道,新的研究表明,要实现AI模型的优秀性能,并不一定要依靠堆算力与堆规模,论文作者,马毅、曹颖、沈向洋深度学习火热十年,不得不说,其机遇与瓶颈在这十年的...。
贝叶斯深度学习 一个统一深度学习和概率图模型的框架 (贝叶斯详解)
人工智能,AI,的进展显示,通过构建多层的深度网络,利用大量数据进行学习,可以获得性能的显著提升,但这些进展基本上是发生在感知任务中,对于认知任务,需要扩展传统的AI范式,4月9日,罗格斯大学计算机科学系助理教授王灏,在AITIME青年科学家——AI2000学者专场论坛上,分享了一种基于贝叶斯的概率框架,能够统一深度学习和概率图模型,...。