Optimum Habana 是 Hugging Face 开发的一个开源库,旨在帮助开发者在 Intel® Gaudi® AI 加速器(HPU,Habana Processing Unit) 上高效地训练和推理大规模的机器学习模型,特别是 Transformer 和 Diffuser 模型。
它作为 Hugging Face Optimum 系列工具的一部分,专注于优化模型在 Gaudi 硬件上的性能,使开发者能够更轻松地利用 Gaudi 加速器的计算能力。
主要功能
- 模型加载和部署: 直接在 Gaudi 设备上加载和运行 Hugging Face 模型。
- 高效训练: 支持分布式训练,优化模型在多卡 Gaudi 集群上的训练速度和内存使用。
- 推理优化: 利用 Gaudi 的加速特性,优化模型推理速度,降低延迟。
- 兼容性强: 支持多种模型架构,如 BERT、GPT-2、Llama、Stable Diffusion 等,适用于文本生成、问答、图像生成等任务。
典型应用场景
- 自然语言处理(NLP): 文本分类、问答系统、机器翻译等。
- 计算机视觉: 图像分类、目标检测、生成式对抗网络(GAN)等。
- 音频处理: 语音识别、音频分类等。
特点:
- 性能优化: 充分发挥 Gaudi 加速器的潜能,加速训练和推理。
- 成本效益: Gaudi 提供更具性价比的 AI 训练和推理解决方案。
- 易于集成: 兼容 Hugging Face Transformers 生态,开发者可以无缝迁移现有模型。
安装方法:
1、使用最新稳定版本:
pip install --upgrade-strategy eager optimum[habana]
此命令将安装最新的稳定版本,并确保 optimum-habana
升级到最新版本。
2、从源代码安装最新开发版本:
pip install git+https://github.com/huggingface/optimum-habana.git
git clone https://github.com/huggingface/optimum-habana
3、使用 transformers_future
分支以获取 Transformers 的最新更改:
pip install git+https://github.com/huggingface/optimum-habana.git@transformers_future
git clone -b transf