MATLAB 2024b深度学习工具箱通过架构创新与功能强化,为科研创新和行业应用提供了全栈式解决方案。
第一:MATLAB 2024b深度学习工具箱新特性
1、MATLAB Deep Learning Toolbox
2、实时脚本(Live Script)与交互控件(Control)功能
3、批量大数据导入及Datastore类函数功能
4、数据清洗(Data Cleaning)功能
5、深度网络设计器(Deep Network Designer)功能
6、实验管理器(Experiment Manager)功能
7、MATLAB Deep Learning Model Hub
8、MATLAB与TensorFlow、PyTorch等深度学习框架协同工作功能
9、MATLAB Deep Learning Toolbox Examples
第二:卷积神经网络(Convolutional Neural Network, CNN)
1、深度学习与传统机器学习的区别与联系
2、卷积神经网络的基本原理
3、LeNet、AlexNet、Vgg-16/19、GoogLeNet、ResNet等经典深度神经网络的区别与联系
4、预训练模型(Alexnet、Vgg-16/19、GoogLeNet、ResNet等)的下载与安装
5、优化算法(梯度下降、随机梯度下降、小批量随机梯度下降、动量法、Adam等)
6、调参技巧(参数初始化、数据预处理、数据扩增、批量归一化、超参数优化、网络正则化等)
7、(1)CNN预训练模型实现物体识别;(2)利用卷积神经网络抽取抽象特征;(3)自定义卷积神经网络拓扑结构;(4)1D CNN模型解决回归拟合预测问题
第三:模型可解释性与特征可视化Model Explanation and Feature Visualization
1、什么是模型可解释性?为什么要对CNN模型进行解释?
2、常用的可视化方法有哪些(特征图可视化、卷积核可视化、类别激活可视化等)?
3、CAM(Class Activation Mapping)、GRAD-CAM、LIME(Local Interpretable Model-agnostic Explanation)、t-SNE等方法原理
4、基于CAM/Grad-CAM的卷积神经网络模型的特征可视化
第四:迁移学习算法(Transfer Learning)
1、迁移学习算法的基本原理
2、基于深度神经网络模型的迁移学习算法
3、基于Alexnet预训练模型的模型迁移
第五:循环神经网络与长短时记忆神经网络(RNN & LSTM)
1、循环神经网络(RNN)与长短时记忆神经网络(LSTM)的基本原理
2、RNN与LSTM的区别与联系
3、(1)时间序列预测;(2)序列-序列分类
第六:时间卷积网络(Temporal Convolutional Network, TCN)
1、时间卷积网络(TCN)的基本原理
2、TCN与1D CNN、LSTM的区别与联系
3、(1)时间序列预测:新冠肺炎疫情预测;(2)序列-序列分类:人体动作识别
第七:生成式对抗网络(Generative Adversarial Network)
1、生成式对抗网络GAN
2、向日葵花图像的自动生成
第八:自编码器(AutoEncoder)
1、自编码器的组成及基本工作原理
2、经典自编码器
3、基于自编码器的图像分类
第九:目标检测YOLO模型
1、什么是目标检测?目标检测与目标识别的区别与联系?YOLO模型的工作原理(从传统目标检测到基于深度学习的目标检测、从“两步法”的R-CNN到“一步法”的YOLO、YOLO模型的演化历史)
2、(1)标注工具Image Labeler功能简介与演示;(2)使用预训练模型实现图像、视频等实时目标检测;(3)训练自己的数据集:新冠疫情佩戴口罩识别
第十:图像语义分割U-Net模型
1、语义分割(Semantic Segmentation)
2、U-Net模型的基本原理
3、基于U-Net的多光谱图像语义分割
第十一:注意力机制(Attention)
1、注意力机制的背景和动机。
2、注意力机制的基本原理
3、注意力机制的主要类型:键值对注意力机制(Key-Value Attention)、自注意力(Self-Attention)与多头注意力(Multi-Head Attention)、Soft Attention 与 Hard Attention、全局(Global)与局部(Local)注意力
4、注意力机制的优化与变体:稀疏注意力(Sparse Attention)、自适应注意力(Adaptive Attention)、动态注意力机制(Dynamic Attention)、跨模态注意力机制(Cross-Modal Attention)
5、(1)基于注意力机制的Seq-to-Seq翻译;(2)基于注意力机制的图像描述
第十二:Transformer模型及其在NLP和CV领域的应用
1、Transformer模型的提出背景
2、Transformer模型的进化之路
3、Transformer模型拓扑结构
4、Transformer模型工作原理
5、BERT模型的工作原理
6、GPT系列模型
7、ViT模型(提出的背景、基本架构、与传统CNN的比较、输入图像的分块处理、位置编码、Transformer编码器、分类头、ViT模型的训练与优化
8、(1)基于BERT模型的文本分类;(2)基于ViT模型的图像分类
第十三:物理信息神经网络(PINN)
1、PINN工作原理:物理定律与方程的数学表达、如何将物理定律嵌入到神经网络模型中?PINN的架构(输入层、隐含层、输出层的设计)、物理约束的形式化(如何将边界条件等物理知识融入网络?)损失函数的设计(数据驱动与物理驱动的损失项)
2、基于PINN的微分方程求解
第十四:图神经网络(GNN)
1、图神经网络的背景和基础知识
2、图的基本概念和表示
3、图神经网络的工作原理
4、图卷积网络(GCN)的工作原理。
5、图神经网络的变种和扩展:图注意力网络(GAT)、图同构网络(GIN)、图自编码器、图生成网络。
6、(1)基于图卷积神经网络的节点分类;(2)基于图神经网络的时间序列异常点检测
第十五:深度学习模型压缩(Compression)
1、深度学习模型压缩的常用方法
2、Deep Learning Toolbox Model Compression Library的安装与模型压缩
3、基于Deep Network Designer的模型压缩
第十六:MATLAB接入ChatGPT/DeepSeek等大语言模型
1、Ollama下载与安装
2、Large Language Models (LLMs) with MATLAB下载与安装
3、ChatGPT API Key配置与MATLAB接入ChatGPT对话
4、本地部署DeepSeek大语言模型与MATLAB接入DeepSeek对话