树莓派 AI 摄像头(Raspberry Pi AI Camera)教程

系列文章目录


前言

        人们使用 Raspberry Pi 产品构建人工智能项目的时间几乎与我们生产 Raspberry Pi 的时间一样长。随着我们发布功能越来越强大的设备,我们能够支持的原生应用范围也在不断扩大;但无论哪一代产品,总会有一些工作负载需要外部加速器,比如我们在 6 月份推出的 Raspberry Pi AI Kit。

        AI Kit 是一款功能强大的硬件,每秒可执行 13 万亿次运算。但它只与 Raspberry Pi 5 兼容,而且需要一个单独的摄像头模块来捕捉视觉数据。因此,我们非常高兴地宣布,我们的摄像头产品线又添新成员:Raspberry Pi AI 摄像头。

        AI 相机采用索尼 IMX500 图像传感器,并集成了 AI 加速器。它可以运行各种流行的神经网络模型,具有低功耗和低延迟的特点,让 Raspberry Pi 中的处理器可以执行其他任务。

Raspberry Pi AI 摄像头的主要功能包括

  • 12 MP 索尼 IMX500 智能视觉传感器
  • 传感器模式 4056×3040(10fps),2028×1520(30fps
  • 1.55 微米 × 1.55 微米单元尺寸
  • 78 度视场角,可手动调节焦距
  • 集成 RP2040,用于神经网络和固件管理

        AI 摄像头可使用我们的普通摄像头带状电缆连接到所有型号的 Raspberry Pi,包括 Raspberry Pi Zero。

 

        利用索尼的人工智能工具套件,可以将使用 TensorFlow 或 PyTorch 等框架的现有神经网络模型转换为可在人工智能相机上高效运行的模型。此外,还可以设计新的模型,以利用人工智能加速器的特定功能。

0.1 引擎盖下

        要使用集成的人工智能加速器,我们必须先上传一个模型。在较老的 Raspberry Pi 设备上,这一过程使用的是 I2C 协议,而在 Raspberry Pi 5 上,我们可以使用速度更快的定制双线协议。link 的摄像头端由板载 RP2040 微控制器管理;附加的 16MB 闪存设备会缓存最近使用过的模型,使我们在很多情况下可以跳过上传步骤。

        一旦传感器开始传输数据流,IMX500 就会像标准的拜耳图像传感器一样工作,就像 Raspberry Pi 摄像头模块 3 上的传感器一样。集成的图像信号处理器(ISP)对传感器帧执行基本的图像处理步骤(主要是贝叶到 RGB 的转换和裁剪/缩放),并将处理后的帧直接输入人工智能加速器。神经网络模型处理完帧后,其输出与拜耳帧一起通过 CSI-2 摄像头总线传输到主机 Raspberry Pi。 

0.2 与 Raspberry Pi libcamera 集成

        AI 摄像头的一个主要优势是与我们的 Raspberry Pi 摄像头软件栈无缝集成。在引擎盖下,libcamera 使用我们自己的 ISP 处理拜耳帧,就像处理任何传感器一样。

        我们还解析神经网络结果,生成输出张量,并将其与处理后的拜尔帧同步。这两个结果都会在 libcamera 的请求完成步骤中返回给应用程序。

        Raspberry Pi 相机框架(Picamera2 和 rpicam-apps)以及任何基于 libcamera 的应用程序都能检索输出张量,并与传感器帧正确同步。下面是一个在 rpicam-apps 下运行的物体检测神经网络模型(MobileNet SSD)的示例,该模型对 30fps 的 1080p 视频进行推理。

        该演示使用 rpicam-apps 中的后处理框架,从输出张量中生成对象边界框,并将其绘制到图像上。这一阶段的实现不超过 300 行代码。而使用 Python 和 Picamera2 构建的同等应用程序所需的代码行数要少得多。

        下面的另一个示例显示了姿势估计神经网络模型 (PoseNet) 以 30fps 的速度在 1080p 视频上执行推理。

        虽然这些示例是使用 Raspberry Pi 4 录制的,但它们在 Raspberry Pi Zero 上运行时也具有相同的推理性能!

        我们与索尼公司合作,在我们的模型动物园中发布了许多针对 AI 相机优化的流行视觉神经网络模型,以及使用 Picamera2 的可视化示例脚本。

0.3 我应该购买哪种产品?

        您应该购买 Raspberry Pi AI Kit 还是 Raspberry Pi AI Camera?AI 套件的理论性能比 AI 摄像头高,可支持更多型号,但只兼容 Raspberry Pi 5。AI 摄像头更小巧,如果您还没有摄像头,总成本更低,而且兼容所有型号的 Raspberry Pi。

        最终,这两款产品都能为普通型号提供出色的加速性能,而且都经过了优化,能与我们的相机软件堆栈顺利配合使用。

0.4 入门和更进一步

        查看我们的入门指南。在这里,您可以找到有关安装人工智能相机硬件、设置软件环境以及在我们的模型动物园中运行示例和神经网络的说明。

        索尼的 AITRIOS 开发者网站上有更多关于 IMX500 传感器的技术资源,特别是 IMX500 转换器和 IMX500 软件包文档,这对希望在 AI 相机上运行自定义训练网络的用户非常有用。

        您多年来使用 Raspberry Pi 构建的令人难以置信的人工智能项目给了我们很大的启发,您的辛勤工作和创造力鼓励我们投资工具,帮助您更进一步。先是 AI Kit,现在又是 AI Camera,它们的到来为高分辨率、高帧率、高质量的视觉 AI 开启了一个全新的世界:我们不知道你们会用它们构建出什么,但我们相信一定会很棒。


一、入门

        Raspberry Pi AI 摄像头使用索尼 IMX500 成像传感器,可为任何摄像头应用提供低延迟和高性能的 AI 功能。与 Raspberry Pi 的相机软件栈紧密集成后,用户只需花最少的精力就能部署自己的神经网络模型。

        本节演示了如何在相机上运行预装或自定义神经网络模型。此外,本节还包括在 rpicam-apps 和 Picamera2 中解释在 IMX500 上运行的神经网络生成的推理数据所需的步骤。

 1.1 前提条件

        这些说明假定您正在使用连接到 Raspberry Pi 4 Model B 或 Raspberry Pi 5 板上的 AI 摄像头。只要稍作改动,您就可以在其他带有摄像头连接器的 Raspberry Pi 型号上使用这些说明,包括 Raspberry Pi Zero 2 W 和 Raspberry Pi 3 Model B+。

        首先,确保你的 Raspberry Pi 运行最新的软件。运行以下命令更新:

sudo apt update && sudo apt full-upgrade

1.2 安装 IMX500 固件

        在启动过程中,AI 摄像机必须将运行时固件下载到 IMX500 传感器上。要将这些固件文件安装到 Raspberry Pi 上,请运行以下命令:

sudo apt install imx500-all

        该命令

  • 安装运行 IMX500 传感器所需的 /lib/firmware/imx500_loader.fpk 和 /lib/firmware/imx500_firmware.fpk 固件文件
  • 在 /usr/share/imx500-models/ 中放置大量神经网络模型固件文件
  • 在 rpicam-apps 中安装 IMX500 后期处理软件阶段
  • 安装索尼网络模型打包工具

注意事项
        IMX500 内核设备驱动程序会在相机启动时加载所有固件文件。如果神经网络模型固件之前没有缓存,这可能需要几分钟时间。下面的演示会在控制台上显示一个进度条,以显示固件加载进度。

1.3 重新启动

        现在您已经安装了先决条件,请重启您的 Raspberry Pi:

sudo reboot

二、运行示例应用程序

        一旦更新了所有系统软件包并安装了固件文件,我们就可以开始运行一些示例应用程序了。如前所述,Raspberry Pi AI 摄像头与 libcamera、rpicam-apps 和 Picamera2 完全集成。

2.1 rpicam-apps

        rpicam-apps 相机应用程序包括 IMX500 物体检测和姿态估计阶段,可在后处理管道中运行。有关后处理管道的更多信息,请参阅后处理文档。

        本页上的示例使用位于 /usr/share/rpicam-assets/ 的后处理 JSON 文件。

2.1.1 物体检测

        MobileNet SSD 神经网络执行基本的对象检测,为找到的每个对象提供边界框和置信度值。imx500_mobilenet_ssd.json 包含使用 MobileNet SSD 神经网络的 IMX500 对象检测后处理阶段的构型参数。

        imx500_mobilenet_ssd.json 声明了包含两个阶段的后处理管道:

        imx500_mobilenet_ssd,在输出张量中拾取神经网络生成的边界框和置信度值

        object_detect_draw_cv,在图像上绘制边框和标签

        MobileNet SSD 张量无需在 Raspberry Pi 上进行大量后处理即可生成边界框的最终输出。所有物体检测都直接在人工智能相机上运行。

        以下命令运行 rpicam-hello,并进行物体检测后处理:

rpicam-hello -t 0s --post-process-file /usr/share/rpi-camera-assets/imx500_mobilenet_ssd.json --viewfinder-width 1920 --viewfinder-height 1080 --framerate 30

        运行该命令后,你会看到一个取景器,在神经网络识别的对象上叠加了边界框:

        要录制带物体检测叠加的视频,请使用 rpicam-vid 代替。以下命令将运行带有物体检测后处理功能的 rpicam-hello:

rpicam-vid -t 10s -o output.264 --post-process-file /usr/share/rpi-camera-assets/imx500_mobilenet_ssd.json --width 1920 --height 1080 --framerate 30

        您可以通过多种方式配置 imx500_object_detection 阶段。

        例如,max_detections 定义了管道在任何给定时间内检测到的对象的最大数量,threshold 定义了管道将任何输入视为对象所需的最小置信度值。

        该网络的原始推理输出数据可能会有相当大的噪声,因此该阶段也会执行一些时间过滤并应用滞后。要禁用这种过滤,请移除 temporal_filter 配置块。

2.1.2 姿势估计

        PoseNet 神经网络执行姿态估计,标记身体上与关节和四肢相关的关键点。imx500_posenet.json 包含使用 PoseNet 神经网络的 IMX500 姿态估计后处理阶段的构型参数。

        imx500_posenet.json 声明了包含两个阶段的后处理流水线:

        imx500_posenet,从 PoseNet 神经网络获取原始输出张量

        plot_pose_cv,用于在图像上绘制线条叠加图

        人工智能相机可执行基本的检测,但输出张量需要在 Raspberry Pi 主机上进行额外的后处理,以产生最终输出。

        以下命令运行 rpicam-hello,并进行姿态估计后处理:

rpicam-hello -t 0s --post-process-file /usr/share/rpi-camera-assets/imx500_posenet.json --viewfinder-width 1920 --viewfinder-height 1080 --framerate 30

        您可以通过多种方式配置 imx500_posenet 阶段。

        例如,max_detections 定义了管道在任何给定时间内检测到的体的最大数量。 threshold 定义了管道将输入视为体所需的最小置信度值。

2.2 Picamera2

        有关使用 Picamera2 进行图像分类、物体检测、物体分割和姿态估计的示例,请参阅 picamera2 GitHub 存储库。

        大多数示例都使用 OpenCV 进行了一些额外处理。要安装运行 OpenCV 所需的依赖项,请运行以下命令:

sudo apt install python3-opencv python3-munkres

        现在下载 picamera2 软件源到你的 Raspberry Pi 上运行示例。您会在根目录下找到示例文件,其他信息请参见 README.md 文件。

        运行软件源中的以下脚本来运行 YOLOv8 对象检测:

python imx500_object_detection_demo.py --model /usr/share/imx500-models/imx500_network_yolov8n_pp.rpk --ignore-dash-labels -r

        要尝试在 Picamera2 中进行姿势估计,请运行软件源中的以下脚本:

python imx500_pose_estimation_higherhrnet_demo.py

三、引擎盖下

3.1 概述

        如下图所示,Raspberry Pi AI 摄像头的工作原理与传统的基于人工智能的摄像头图像处理系统不同:

        左侧展示了传统人工智能摄像头系统的架构。在这种系统中,摄像头向树莓派(Raspberry Pi)发送图像。Raspberry Pi 处理图像,然后执行人工智能推理。传统系统可能使用外部人工智能加速器(如图所示),也可能完全依赖于 CPU。

        右侧展示了使用 IMX500 的系统架构。摄像头模块包含一个小型图像信号处理器(ISP),可将原始摄像头图像数据转化为输入张量。摄像头模块将该张量直接发送到摄像头内的人工智能加速器,人工智能加速器产生一个包含推理结果的输出张量。人工智能加速器将该张量发送到 Raspberry Pi。无需外部加速器,Raspberry Pi 也无需在 CPU 上运行神经网络软件。

        要充分理解这个系统,请先熟悉以下概念:

  • 输入张量

        传感器图像中传递给人工智能引擎进行推理的部分。由一个小型板载 ISP 生成,它还会将摄像头图像裁剪并缩放至已加载的神经网络所期望的尺寸。输入张量通常不向应用程序提供,但可以为调试目的进行访问。

  • 感兴趣区域 (ROI)

        精确指定传感器图像在重新缩放为神经网络所需的尺寸之前被裁剪掉的部分。可由应用程序进行查询和设置。使用的单位始终是全分辨率传感器输出中的像素。默认 ROI 设置使用从传感器接收到的完整图像,不裁剪任何数据。

  • 输出张量

        神经网络执行推理的结果。输出的精确数量和形状取决于神经网络。应用代码必须了解如何处理张量。

3.2 系统架构

        下图显示了在我们的成像/推理用例中使用的各种相机软件组件(绿色)和 Raspberry Pi AI 相机模块硬件(红色):

        启动时,IMX500 传感器模块加载固件以运行特定的神经网络模型。在流式传输过程中,IMX500 会生成图像流和推理流。推理流包含神经网络模型的输入和输出,也称为输入/输出张量。

3.3 设备驱动程序

        在最底层,IMX500 传感器内核驱动程序通过 I2C 总线构型相机模块。CSI2 驱动程序(在 Pi 5 上为 CFE,在所有其他 Pi 平台上为 Unicam)设置接收器,将图像数据流写入帧缓冲区,同时将嵌入式数据和推理数据流写入内存中的另一个缓冲区。

        固件文件也通过 I2C 总线传输。大多数设备使用标准的 I2C 协议,但 Raspberry Pi 5 使用定制的高速协议。内核中的 RP2040 SPI 驱动程序负责处理固件文件传输,因为传输使用的是 RP2040 微控制器。微控制器通过 SPI 总线连接内核与 IMX500 之间的 I2C 传输。此外,RP2040 还将固件文件缓存在板载存储器中。这就避免了通过 I2C 总线传输整个固件包的需要,大大加快了已使用固件的加载速度。

3.3.1 libcamera

        libcamera 从内核中脱队图像和推理数据缓冲区后,IMX500 特定的 cam-helper 库(libcamera 中 Raspberry Pi IPA 的一部分)会解析推理缓冲区,以访问输入/输出张量。libcamera 返回以下控件:

ControlDescription

CnnOutputTensor

存储输出张量的浮点数组。

CnnInputTensor

存储输入张量的浮点数组。

CnnOutputTensorInfo

描述输出张量结构的网络特定参数:

struct OutputTensorInfo {uint32_t tensorDataNum;uint32_t numDimensions;uint16_t size[MaxNumDimensions];
};struct CnnOutputTensorInfo {char networkName[NetworkNameLen];uint32_t numTensors;OutputTensorInfo info[MaxNumTensors];
};

CnnInputTensorInfo

描述输入张量结构的网络特定参数:

struct CnnInputTensorInfo {char networkName[NetworkNameLen];uint32_t width;uint32_t height;uint32_t numChannels;
};

3.3.2 rpicam-apps

        rpicam-apps 提供了一个 IMX500 后处理阶段基类,用于实现 IMX500 后处理阶段的帮助程序: IMX500PostProcessingStage。使用该基类可为在 IMX500 上运行的任何神经网络模型派生一个新的后处理阶段。有关示例,请参阅 imx500_mobilenet_ssd.cpp:

class ObjectInference : public IMX500PostProcessingStage
{
public:ObjectInference(RPiCamApp *app) : IMX500PostProcessingStage(app) {}char const *Name() const override;void Read(boost::property_tree::ptree const &params) override;void Configure() override;bool Process(CompletedRequestPtr &completed_request) override;
};

        对于应用程序接收到的每一帧,都会调用 Process() 函数(上述情况中为 ObjectInference::Process())。在该函数中,您可以提取输出张量,以便进一步处理或分析:

auto output = completed_request->metadata.get(controls::rpi::CnnOutputTensor);
if (!output)
{LOG_ERROR("No output tensor found in metadata!");return false;
}std::vector<float> output_tensor(output->data(), output->data() + output->size());

        一旦完成,最终结果可以可视化或保存在元数据中,由另一个下游阶段或顶层应用程序本身使用。在对象推理案例中

if (objects.size())completed_request->post_process_metadata.Set("object_detect.results", objects);

        下游运行的 object_detect_draw_cv 后处理阶段会从元数据中获取这些结果,并在 ObjectDetectDrawCvStage::Process() 函数中将边界框绘制到图像上:

std::vector<Detection> detections;
completed_request->post_process_metadata.Get("object_detect.results", detections);

        下表包含 IMX500PostProcessingStage 提供的全部辅助函数:

FunctionDescription

Read()

该函数通常从 <Derived Class>::Read() 中调用,用于读取输入张量解析和保存的配置参数。该函数还读取神经网络模型文件字符串(“network_file”)并设置固件,以便在相机打开时加载。

Process()

该函数通常从 <Derived Class>::Process() 中调用,如果 JSON 配置文件需要,它将处理输入张量并将其保存到文件中。

SetInferenceRoiAbs()

设置传感器图像上的绝对感兴趣区域 (ROI) 裁剪矩形,用于 IMX500 的推断。

SetInferenceRoiAuto()

自动计算传感器图像上的感兴趣区域(ROI)裁剪矩形,以保持给定神经网络的输入张量宽高比。

ShowFwProgressBar()

在控制台上显示一个进度条,显示神经网络固件上传到 IMX500 的进度。

ConvertInferenceCoordinates()

从输入张量坐标空间转换到最终的 ISP 输出图像空间。从原始传感器图像到完全处理后的 ISP 输出图像,会发生许多缩放/裁剪/平移操作。该函数将输出张量提供的坐标转换为执行这些操作后的等效坐标。

3.3.3 Picamera2

        Picamera2 中的 IMX500 集成与 rpicam-apps 中的集成非常相似。Picamera2 有一个 IMX500 辅助类,提供与 rpicam-apps IMX500PostProcessingStage 基类相同的功能。该类可通过以下方式导入任何 python 脚本:

from picamera2.devices.imx500 import IMX500# This must be called before instantiation of Picamera2
imx500 = IMX500(model_file)

        要检索输出张量,可从控件中获取。然后,您可以在 python 脚本中进行额外处理。

        例如,在 imx500_object_detection_demo.py 等对象推理用例中,会在 parse_detections() 中提取对象边框和置信度值,并在 draw_detections() 中在图像上绘制边框:

class Detection:def __init__(self, coords, category, conf, metadata):"""Create a Detection object, recording the bounding box, category and confidence."""self.category = categoryself.conf = confobj_scaled = imx500.convert_inference_coords(coords, metadata, picam2)self.box = (obj_scaled.x, obj_scaled.y, obj_scaled.width, obj_scaled.height)def draw_detections(request, detections, stream="main"):"""Draw the detections for this request onto the ISP output."""labels = get_labels()with MappedArray(request, stream) as m:for detection in detections:x, y, w, h = detection.boxlabel = f"{labels[int(detection.category)]} ({detection.conf:.2f})"cv2.putText(m.array, label, (x + 5, y + 15), cv2.FONT_HERSHEY_SIMPLEX, 0.5, (0, 0, 255), 1)cv2.rectangle(m.array, (x, y), (x + w, y + h), (0, 0, 255, 0))if args.preserve_aspect_ratio:b = imx500.get_roi_scaled(request)cv2.putText(m.array, "ROI", (b.x + 5, b.y + 15), cv2.FONT_HERSHEY_SIMPLEX, 0.5, (255, 0, 0), 1)cv2.rectangle(m.array, (b.x, b.y), (b.x + b.width, b.y + b.height), (255, 0, 0, 0))def parse_detections(request, stream='main'):"""Parse the output tensor into a number of detected objects, scaled to the ISP out."""outputs = imx500.get_outputs(request.get_metadata())boxes, scores, classes = outputs[0][0], outputs[1][0], outputs[2][0]detections = [ Detection(box, category, score, metadata)for box, score, category in zip(boxes, scores, classes) if score > threshold]draw_detections(request, detections, stream)

        与 rpicam-apps 示例不同的是,本示例没有应用额外的滞后或时间滤波。

        Picamera2 中的 IMX500 类提供了以下辅助功能:

FunctionDescription

IMX500.get_full_sensor_resolution()

返回 IMX500 传感器的全分辨率。

IMX500.config

返回神经网络构型的字典。

IMX500.convert_inference_coords(coords, metadata, picamera2)

将坐标从输入张量坐标空间转换到最终的 ISP 输出图像空间。必须传递 Picamera2 的图像元数据和 Picamera2 对象。从原始传感器图像到完全处理后的 ISP 输出图像之间会发生许多缩放/剪切/平移操作。该函数将输出张量提供的坐标转换为执行这些操作后的等效坐标。

IMX500.show_network_fw_progress_bar()

在控制台上显示一个进度条,显示神经网络固件上传到 IMX500 的进度。

IMX500.get_roi_scaled(request)

返回 ISP 输出图像坐标空间中的感兴趣区域 (ROI)。

IMX500.get_isp_output_size(picamera2)

返回 ISP 输出图像大小。

IMX5000.get_input_size()

根据使用的神经网络模型返回输入张量大小。

IMX500.get_outputs(metadata)

从 Picamera2 图像元数据元数据返回输出张量。

IMX500.get_output_shapes(metadata)

根据所使用的神经网络模型,从 Picamera2 图像元数据中返回输出张量的形状。

IMX500.set_inference_roi_abs(rectangle)

设置感兴趣区域 (ROI) 裁剪矩形,该矩形决定传感器图像的哪一部分被转换为输入张量,用于 IMX500 的推理。兴趣区域应以传感器全分辨率下的像素为单位,指定为一个(x_offset、y_offset、width、height)元组。

IMX500.set_inference_aspect_ratio(aspect_ratio)

自动计算传感器图像上的感兴趣区域(ROI)裁剪矩形,以保持给定的长宽比。要使 ROI 长宽比与该网络的输入张量完全匹配,请使用 imx500.set_inference_aspect_ratio(imx500.get_input_size())。

IMX500.get_kpi_info(metadata)

返回 IMX500 针对给定图像元数据记录的帧级性能指标。

四、模型部署

        要在 Raspberry Pi AI 摄像头上部署新的神经网络模型,请完成以下步骤:

  1. 提供一个神经网络模型。
  2. 量化并压缩模型,使其能够使用 IMX500 摄像头模块上的可用资源运行。
  3. 将压缩后的模型转换为 IMX500 格式。
  4. 将模型打包成固件文件,以便在运行时加载到相机上。

        前三个步骤通常在台式机或服务器等功能更强大的计算机上执行。您必须在 Raspberry Pi 上运行最后的打包步骤。

4.1 创建模型

        神经网络模型的创建超出了本指南的范围。现有模型可以重复使用,也可以使用 TensorFlow 或 PyTorch 等流行框架创建新模型。

        更多信息,请参阅 AITRIOS 开发者官方网站。

4.2 量化和压缩

        使用索尼模型压缩工具包对模型进行量化和压缩。要安装该工具包,请运行以下命令:

pip install model_compression_toolkit

        更多信息,请参阅索尼模型优化 GitHub 代码库。

        模型压缩工具包以下列格式生成量化模型:

  • Keras (TensorFlow)
  • ONNX(PyTorch)

4.3 转换

        要转换模型,首先要安装转换工具:

pip install imx500-converter[tf]

提示
        始终使用与压缩模型时相同版本的 TensorFlow。

pip install imx500-converter[pt]

        如果需要安装这两个软件包,请使用两个独立的 Python 虚拟环境。这样可以防止 TensorFlow 和 PyTorch 相互冲突。

        接下来,转换模型:

imxconv-tf -i <compressed Keras model> -o <output folder>
imxconv-pt -i <compressed ONNX model> -o <output folder>

        这两个命令都会创建一个输出文件夹,其中包含一份内存使用报告和一个 packerOut.zip 文件。

        有关模型转换过程的更多信息,请参阅索尼 IMX500 转换器官方文档。

4.4 包装

重要事项
        必须在 Raspberry Pi 上运行此步骤。

        最后一步是将模型打包成 RPK 文件。运行神经网络模型时,我们将把该文件上传到 AI 相机。在继续之前,请运行以下命令安装必要的工具:

sudo apt install imx500-tools

        要将模型打包成 RPK 文件,请运行以下命令:

imx500-package.sh -i <path to packerOut.zip> -o <output folder>

        该命令将在输出文件夹中创建一个名为 network.rpk 的文件。你将把这个文件的名称传递给你的 IMX500 相机应用程序。

        有关更全面的说明和所用工具的更多细节,请参阅索尼 IMX500 Packager 文档。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/438154.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

嵌入式外设应用(代码)

文章目录 1. 工业自动化2. 智能家居设备3. 汽车电子4. 生命体征监测仪5. 物联网应用 嵌入式外设应用广泛&#xff0c;有很多应用领域&#xff1a; 1. 工业自动化 应用场景&#xff1a;使用传感器监测设备状态&#xff0c;控制电机的启动和停止。 示例代码&#xff1a; #inc…

Stream流的终结方法(二)——collect

1.Stream流的终结方法 2. collect方法 collect方法用于收集流中的数据放到集合中去&#xff0c;可以将流中的数据放到List&#xff0c;Set&#xff0c;Map集合中 2.1 将流中的数据收集到List集合中 package com.njau.d10_my_stream;import java.util.*; import java.util.f…

SSL VPN | Easyconnect下载安装使用 (详尽)

EasyConnect是一款远程连接工具&#xff0c;为用户提供简便、快捷的远程访问和控制解决方案。 目录 下载 安装 使用 卸载 下载 通过链接进入官网技术支持板块 深信服技术支持-简单、高效、自助化服务 (sangfor.com.cn)https://support.sangfor.com.cn/ 选择软件下载 在安…

ElasticSearch学习笔记(三)Ubuntu 2204 server elasticsearch集群配置

如果你只是学习elasticsearch的增、删、改、查等相关操作&#xff0c;那么在windows上安装一个ES就可以了。但是你如果想在你的生产环境中使用Elasticsearch提供的强大的功能&#xff0c;那么还是建议你使用Linux操作系统。 本文以在Ubuntu 2204 server中安装elasticsearch 8.…

Redis:hash类型

Redis&#xff1a;hash类型 hash命令设置与读取HSETHGETHMGET 哈希操作HEXISTSHDELHKEYSHVALSHGETALLHLENHSETNXHINCRBYHINCRBYFLOAT 内部编码ziplisthashtable 目前主流的编程语言中&#xff0c;几乎都提供了哈希表相关的容器&#xff0c;Redis自然也会支持对应的内容&#xf…

【Godot4.3】用2D网格模拟一点透视

概述 空间的透视是可以在二维平面上参数化计算和模拟的。本篇基于CanvasItem绘制函数draw_colored_polygon()自带的UV坐标和贴图功能&#xff0c;实现基础的平行透视效果。 或者可以叫做一点透视&#xff0c;由一个消失点决定物体的透视效果。 测试代码 extends Node2Dvar re…

【课程学习】Wireless Communications

Goldsmith A. Wireless communications[M]. Cambridge university press, 2005. Wireless Communications 无线通信课程 文章目录 2-Path Loss, Shadowing, and Multipath2.4-Two-Ray Multipath Model时延扩展 delay spread P33 3-Statistical Multipath Channel Models3.3-Wid…

HarmonyOS应用六之应用程序进阶一

目录&#xff1a; 1、UIAbility的冷启动和UIAbility热启动2、静态资源和动态资源的访问3、页面跳转3.1、页面返回跳转 4、HAR的ArkUI组件、接口、资源&#xff0c;供其他应用或当前应用的其他模块引用4.1、导出HAR的ArkUI组件4.2、引用HAR的ArkUI组件 5、循环渲染6、状态管理最…

【MySQL】多表联合查询常见练习题

数据库表如下&#xff1a; teacher&#xff1a;老师表 course&#xff1a;课程表 student&#xff1a;学生表 class&#xff1a;班级表 sc&#xff1a;成绩表 一、根据上面5张表写sql语句 1. 查询” 01 “课程比” 02 “课程成绩高的学生的信息及课程分数 select student.…

在Ubuntu 20.04中安装CARLA

0. 引言 CARLA (Car Learning to Act) 是一款开源自动驾驶模拟器&#xff0c;其支持自动驾驶系统全管线的开发、训练和验证&#xff08;Development, Training, and Validation of autonomous driving systems&#xff09;。Carla提供了丰富的数字资产&#xff0c;例如城市布局…

国外电商系统开发-运维系统功能清单开发

一、最终效果图 二、功能清单 功能 描述 自定义日志绘图 根据Nginx、Apache登录日志文件绘图&#xff0c;绘图数据包括&#xff1a;访问量走势&#xff0c;500错误&#xff0c;200正确百分比等 创建服务器 加入服务器 主机状态自动检查 加入主机到系统后&#xff0c;系统…

MyBatis——ORM

MyBatis——ORM 验证映射配置ResultType本质是ResultMap具体的转换逻辑 概括的说&#xff0c;MyBatis中&#xff0c;对于映射关系的声明是由开发者在xml文件手动完成的。比如对查询方法而言&#xff0c;你需要显式声明ResultType或ResultMap&#xff0c;这里其实就是在定义数据…

(16)MATLAB仿真Nakagami-m分布1

文章目录 前言一、Nakagami分布二、MATLAB建模代码三、仿真结果画图四、总结 前言 Nakagami衰落模型最初是由于该模型与短波电离层传播的经验结果相匹配而提出的。它还用于仿真来自多个干扰源的情况&#xff0c;因为多个独立且同分布&#xff08;i.i.d&#xff09;的瑞利分布随…

基于四种网络结构的WISDM数据集仿真及对比:Resnet、LSTM、Shufflenet及CNN

在上节中&#xff0c;我们已经详细介绍了WISDM数据集及如何使用CNN网络训练&#xff0c;得到了六个维度的模型仿真指标及五个维度的可视化分析&#xff0c;那么现在我们将训练模型推广到其他网路结构中去&#xff0c;通过仿真实验来对比一下不同网络之间对于WISDM数据集的训练效…

大语言模型入门(三)——提示词编写注意事项

一、提示词编写原则 提示词的编写应当遵循两个原则&#xff0c; 一个是指令必须清晰且具体&#xff0c;另一个是应当给模型充足的时间去思考。首先&#xff0c;你的指令足够清晰和具体&#xff0c;才能让大模型明确你需要它执行的任务&#xff0c;从而降低我们得到无关或者不正…

kubernetes-强制删除命名空间

一、故障现象 1、删除命名空间卡住、强制删除也卡住 2、其他终端显示命名空间下无资源 二、处理步骤 1、kubectl get namespace cilium-test -o json > temp.json 获取你需要删除的命名空间json描述文件。 2、修改finalize字段 3、替换 kubectl replace --raw "/api/v1…

Pikachu-xss防范措施 - href输出 js输出

总体原则&#xff1a; 输入做过滤&#xff0c;输出做转义 过滤&#xff1a;根据业务需要进行过滤&#xff0c;如&#xff1a;输入点要求输入手机号&#xff0c;则只允许输入手机号格式的数字&#xff1b; 转义&#xff1a;所有输出到前端的数据&#xff0c;都根据输出点进行转…

【MySQL】DML数据操作语句和基本的DQL语句

目录 一、Mysql对数据的增删改 1. 增加数据 2. 修改数据&#xff08;UPDATE语句&#xff09; 3. 删除 3.1 delete、truncate、drop区别 二、DQL语言&#xff08;重点&#xff09; 1. 单表查询 1.1 最简单的查询 1.2 从表中获取数据 1.3 字段名起别名 1.4 添加字段 1…

深度学习——线性神经网络(一、线性回归)

目录 一、线性回归1.1 线性回归的基本元素1.1.1 术语介绍1.1.2 线性模型1.1.3 损失函数1.1.4 解析解1.1.5 随机梯度下降1.1.6 模型预测 1.2 正态分布与平方损失 因为线性神经网络篇幅比较长&#xff0c;就拆成几篇博客分开发布。目录序号保持连贯性。 一、线性回归 回归&#x…

Linux:深入理解冯诺依曼结构与操作系统

目录 1. 冯诺依曼体系结构 1.1 结构分析 1.2 存储结构分布图 2. 操作系统 2.1 概念 2.2 如何管理 2.3 什么是系统调用和库函数 1. 冯诺依曼体系结构 1.1 结构分析 不管是何种计算机&#xff0c;如个人笔记本电脑&#xff0c;服务器&#xff0c;都是遵循冯诺依曼结构。…