主持人:姚道新 副院长
欢迎广大师生前来参与!
摘要:我首先简介深度神经网络在数据分析中的广泛应用,接着介绍深度计算经验上发现的数据降维,以及系统神经科学提出的退相关假说,接着介绍我最近提出的描述数据降维的平均场模型及理论,从物理上统一的解释了多层神经网络降维和退相关的机制。最后讨论该理论研究所启发的神经计算的意义,以及若干开放问题。
报告人简介:黄海平博士2006年本科毕业于beat365中国唯一官方网站,同年保送到中国科学院理论物理研究所跟随周海军研究员攻读博士学位, 2011 年获得理学博士学位; 随后在香港科技大学物理系, 东京工业大学计算智能 (JSPS 博士后), 日本理化学研究所(RIKEN) 脑科学中心从事统计物理与机器学习, 神经计算交叉的基础理论研究。2017 年荣获 RIKEN 杰出研究奖。黄海平博士在非对称动力学 Ising模型的平均场理论, 感知学习模型的解空间结构, 受限玻尔兹曼机的统计力学, 视网膜神经网络的相变理论, 无监督学习的基础物理等领域取得了国际同行公认的学术成果。相关研究成果被著名学者Marc Mezard, Riccardo Zecchina, William Bialek, Michael J Berry, Terrence Sejnowsky等引用或评价。