深度学习的统计物理:模式分解、解纠缠与幂律
发布日期:2022-11-09
作者:
编辑:瞿磊
来源:兰州理论物理中心
主讲人:黄海平 教授(中山大学)
题目:深度学习的统计物理:模式分解、解纠缠与幂律
时间:2022年11月17日上午10:00
会议ID:(腾讯会议)891-124-176
联系人:俞连春
报告摘要:
深度学习是否统计物理可解?这是长期争论的科学问题。本报告将从我们最近提出的模式分解视角进行剖析。我们发现,传统的深度学习可以转换到模式空间学习,不仅大大降低了训练参数从而获得极大的提速,而且学习的行为可由模式的幂律描述;相⽐传统的训练,深度网络被训练后逐层解纠缠的效果更佳。更进一步,从平均场理论角度,我们可以精确预测学习误差的动力学。这种模式分解的观点有望更透彻地理解深度学习的微观机制。
Ref: Chan Li and H. Huang, Emergence of hierarchical modes from deep learning, arXiv: 2208.09859.
个人简介:
黄海平,中山大学教授,博士生导师, 2011年获得中科院理论物理所博士学位, 随后在香港科技大学物理系, 东京工业大学计算智能系,日本理化学研究所(RIKEN) 脑科学中心从事统计物理与机器学习、神经计算交叉的基础理论研究,曾获得JSPS博士后资助、 RIKEN 杰出研究奖,国家自然科学基金等,著有英文专著《神经网络的统计力学》(德国施普林格出版社和高等教育出版社联合出版)。