一、OpenVINO
OpenVINO(Open Visual Inference and Neural Networks)是英特尔公司为开发者提供的一款开源AI工具包,主要用于加速和优化深度学习模型的推理性能。它通过提供高效且轻量级的推理引擎,帮助用户快速部署复杂的视觉任务模型,实现高性能的计算机视觉应用。
假如没有英伟达的显卡,但是有英特尔的CPU,性能还不错,你又想部署一些深度学习模型,那么OpenVINO将是你一个不错的选择。
1.1 OpenVINO的功能与特点
(1)、 模型转换与优化:
- 提供 neon工具,用于将训练好的模型(如TensorFlow、PyTorch、ONNX等格式)转换为适合推理的格式。
- 支持模型量化(Quantization),将浮点模型转换为整数模型,以减少内存占用并提升推理速度。
- 支持多模型(Multi-Model)推理,通过共享部分权重参数减少推理时间。
(2)、推理引擎:
- 提供 infer API,支持CPU、GPU、多核处理器等多种硬件后端。
- 针对不同硬件优化了推理引擎,例如利用Intel Nervous Engine(NE)加速GPU后端。
(3)、 性能优化:
- 通过后端优化和硬件加速,OpenVINO的推理速度显著快于CPU基准,通常比轻量化模型还要快。
(4)、 支持的硬件:
- CPU:提供多线程多线程的CPU后端,支持多线程并行推理。
- GPU:支持OpenCL、CUDA等多种框架,通过NE engine加速。
- 多核处理器:支持Intel 至强、至强性能处理器(Xeon)、至新处理器(Xe)等多核架构。
(5)、轻量化推理:
- OpenVINO支持轻量化推理(Lightweight Inference),通过减少模型大小和推理时间,满足边缘设备的应用需求。
二、OpenVINO下载
OpenVINO有python安装包和C++开发包,这里我的操作系统是Windows,安装包的下载地址为:下载地址
打开网址后,选择对应的安装包下载即可。
完成下载,将安装包进行解压,建议安装在没有中文路径的目录下。解压后截图如下:
简单介绍下解压的目录:
- docs:开发者文档。
- python:python语言开发的包。
- runtime:可以简单理解为就是C++的开发包,本次配置重点的目录。主要是包了openVINO的头文件、库文件、二进制文件(DLL)以及配套的第三方库。
- samples:各种简单、入门的例程代码。
三、第三方库的配置三步曲
在VS2022中,新建一个项目,进行OpenVINO配置。
3.1 头文件
(1)、选中项目,右击选中属性。
(2)、选择【VC++目录】->【包含目录】,点击新增包含的图标,选择openVINO的安装路径下的runtime/include目录。
点击确定返回上一级。
3.2 库文件
选择【VC++目录】->【库目录】,点击新增包含的图标,选择openVINO的安装路径下的runtime\lib\intel64\Debug目录。假如是release模式,选择Release目录。
3.3 二进制文件
openVINO的安装路径下的:
- runtime\bin\intel64\Debug
- runtime\bin\intel64\Release
- runtime\3rdparty\tbb\bin
这三条路径,均加入系统环境变量的Path变量。
四、环境测试
写一份简单的C++测试代码,用来验证环境是否配置成功。
#include "openvino/openvino.hpp"int main()
{ov::Core core;std::cout << ov::get_openvino_version() << std::endl;return 0;
}
编译、运行,在控制台正常打印版本号,即可说明配置成功。
五、小结
OpenVINO在VS2022中的环境配置,与opencv的环境配置基本相同,增加了第三方库的配置。祝你使用OpenVINO顺利。