概述
开幕式
再谈人工智能芯片——魏少军
可重构计算技术的软件定义芯片
生成式AI与大语言模型时代的NVIDIA GPU生态——NVIDIA
NN的发展脉络
1989年,证明神经网络可以表示概率的近似,使得其具有强大的数据拟合能力。
模型的各项能力在2020年基本超过了人类。
大语言模型的特征
- 拟合了人类语言、认知的分布
- 无需标注的学习方式可以发挥数据的力量
- 面向数据和知识,而非面向某一领域,重塑学习的生态
LLM的性能需求和规模
- 过去两年70%的AI文章都在讨论transformer模型
- transformer模型的计算需求以每两年275倍的速度增长
GPT-3的推理
GPU上的优化
采用Transformer engine
通信
互连网络设计
软件
软件栈(训练)
NeMo训练框架
软件栈(推理)
实时性、算子多、多GPU并行、成本
TensorRT
开源的编程模型
生成式人工智能的革命——张亚林(燧原科技)
智库信息:
模型的发展路线
终端侧AI是AI的未来——万卫星(高通)
AI引擎
面向Transformer模型的优化
混合量化
模型两端精度要求高,中间精度要求低