人工智能涉及对机器学习、模式识别、计算机视觉、语音识别、自然语言处理等多个领域的研究,是一门非常交叉的学科。本课程将以神经网络为主线,介绍网络结构、泛化能力、数学基础以及神经网络在解偏微分方程和科学问题中的一些应用。第一部分将会介绍神经网络的基本知识和重要问题等,特别关注神经网络的泛化以及神经网络中一些比较重要的现象。第二部分则是从训练过程来介绍神经网络,主要介绍频率、初始化、以及一些优化算法如何影响神经网络的训练过程和泛化,重点讲述频率原则和凝聚现象。第三部分主要介绍大语言模型相关的架构,主要是Transformers及相关理解。第四部分则为神经网络的实际应用,主要介绍神经网络在解偏微分方程以及在科学问题中的应用。 课程希望通过学习神经网络的基础以及神经网络的应用,使学生掌握人工智能研究中所需的基本**和方法,并培养学生运用数学知识进行建模和利用人工智能相关技术分析和解决实际问题的能力,为后续学习人工智能具体技术和进一步深造奠定基础。
机器学习的基本数学问题及神经网络的历史
PPT: Lecture 1
基本网络结构,全链接和卷积网络,残差网络,损失函数,优化方法
PPT: Lecture 2
泛化及重要现象,傅里叶分析,频率原则实验、理解
PPT: Lecture 3
频率原则:多尺度神经网络、一维理论 上机:编程复现频率原则
PPT: 见PPT目录
Transformer, ViT
PPT: 见PPT目录
复习Transformer构架,介绍Anchor function
PPT: 见PPT目录