YOLOv12 是“你只看一次”(You Only Look Once, YOLO)系列的最新版本,于 2025 年 2 月发布。它引入了注意力机制,提升了检测精度,同时保持了高效的实时性能。在保持速度的同时,显著提升了检测精度。例如,YOLOv12-N 在 T4 GPU 上的推理延迟为 1.64 毫秒,平均精度(mAP)达到 40.6%,相比 YOLOv10-N 和 YOLOv11-N 分别提升了 2.1% 和 1.2%
YOLOv12 作为 YOLO 系列的最新迭代,首次将注意力机制深度融入单阶段检测框架,通过三大关键技术实现性能飞跃:
-
区域注意力模块(A2):通过特征图分块与重塑操作,将全局注意力的计算复杂度从二次方降至线性,同时保留大感受野,兼顾效率与精度。
-
残差高效层聚合网络(R-ELAN):引入块级残差连接与动态缩放技术,解决传统ELAN的梯度阻塞问题,提升训练稳定性与特征融合能力。
-
极简架构设计:移除位置编码、降低MLP扩展比、减少堆叠块深度,结合FlashAttention优化内存访问效率,推理速度较YOLOv9提升42%。
在性能方面更是全面碾压前代模型,在 MS COCO 基准测试中,YOLOv12展现出显著优势:
-
小型模型(YOLOv12-N):以40.6% mAP超越YOLOv10-N(38.5%),延迟仅1.64毫秒/图像。
-
中型模型(YOLOv12-S):48.0% mAP,较YOLOv8-S提升3.0%,计算量降低至21.4G FLOPs。
-
跨任务兼容性:支持实例分割、姿态估计等扩展任务,在复杂场景(如遮挡、低光照)中检测精度提升15%以上。
与基于 Transformer 的 RT-DETR 相比,YOLOv12-S 快42%、仅需36%计算资源,在实时性与部署成本上占据绝对优势。
接下来就为大家奉上详细的 YOLOv12 本地部署教程,手把手教你如何将模型部署到你的项目中,轻松享受高性能AI带来的便利。
二、部署流程
环境推荐配置
系统:Ubuntu22.04,
显卡:4090,
显存:24G,cuda11.8
1. 基础环境
查看系统是否有Miniconda3的虚拟环境
conda -V
如果输入命令没有显示Conda版本号,则需要安装。
2.更新系统命令
输入下列命令将系统更新及系统下载
apt-get update && apt-get install ffmpeg libsm6 libxext6 -y
3.创建虚拟环境
创建名称为“yolov12”的虚拟环境并激活
conda create -n yolov12 python=3.11 -y
conda activate yolov12
4.下载模型
输入下列命令下载yolov12模型同时进入项目中
git clone https://gitclone.com/github.com/sunsmarterjie/yolov12.git
cd yolov12/
5.下载模型依赖包
输入下列命令:
pip install -r requirements.txt
出现报错,重新使用命令下载包同时换源加速:
wget https://github.com/Dao-AILab/flash-attention/releases/download/v2.7.3/flash_attn-2.7.3+cu11torch2.2cxx11abiFALSE-cp311-cp311-linux_x86_64.whl
pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple
继续下载其他依赖包
pip install -e .
三、网页演示
在本地运行Gradio应用程序,使用下列命令运行项目呈现模型的成功界面
python app.py
打开网址: