【瑞芯微RV1126(板端摄像头图像数据采集)】②使用v4l2视频设备驱动框架采集图像数据

RV1126开发板:使用v4l2视频设备驱动框架采集图像数据

    • 前言
    • 一、按键
    • 二、LCD显示
    • 三、V4L2 摄像头应用编程
    • 四、完整代码

前言

本系列的目的是,不仅仅将能够进行图片推理的模型部署于板端,还提供了两种摄像头数据采集的方法,集成到自己的深度学习推理代码之后,可以根据应用场景的不同实现按键控制拍照推理或者是实时推理并显示。
本系列第一篇:https://blog.csdn.net/m0_71523511/article/details/139636367
本系列第二篇:本文
本系列第三篇:https://blog.csdn.net/m0_71523511/article/details/139011550

在本系列第三篇博客中,最后我有提到,读取摄像头数据来进行实时推理或者拍照推理,在那里提供了两种思路:①按照这系列的第一篇博客,搭建环境,调用opencv的高级函数采集图像数据;②按照这篇博客,学习使用v4l2视频设备驱动框架来采集图像数据,本文还提供了板端按键和lcd的示例代码,方便后续集成到自己的深度学习板端项目中。

参考资料:【正点原子】I.MX6U 嵌入式 Linux C 应用编程指南,https://pan.baidu.com/s/1inZtndgN-L3aVfoch2-sKA#list/path=%2F,提取码:m65i,里面有一个文档,名字是:【正点原子】I.MX6U嵌入式Linux C应用编程指南V1.1。
想搞懂v4l2代码的话,建议先看第一章、第二章、第四章、第十四章的存储映射IO,最后再看第二十六章,跟着26.2写代码就可以运行,如果还想使用按键和将图像显示到LCD屏幕上的话还需要看第十八章、二十章等。接下来将每个部分的代码先单独拿出来,头文件就先全部给出。

一、按键

简要介绍:Linux 系统为了统一管理输入设备,实现了一套能够兼容所有输入设备的框架,那么这个框架就
是 input 子系统。驱动开发人员基于 input 子系统开发输入设备的驱动程序, input 子系统可以屏蔽硬件的差
异,向应用层提供一套统一的接口。
基于 input 子系统注册成功的输入设备,都会在/dev/input 目录下生成对应的设备节点(设备文件), 设备节点名称通常为 eventX(X 表示一个数字编号 0、 1、 2、 3 等),譬如/dev/input/event0等, 通过读取这些设备节点可以获取输入设备上报的数据。
在这里插入图片描述

#include <stdio.h>
#include <stdlib.h>
#include <sys/types.h>
#include <sys/stat.h>
#include <fcntl.h>
#include <unistd.h>
#include <opencv2/opencv.hpp>
#include <opencv2/highgui/highgui.hpp>
#include <opencv2/imgproc/imgproc_c.h>
#include <opencv2/core.hpp> 
#include <linux/input.h>
#include <linux/videodev2.h>
#include <errno.h>
#include <string.h>
#include <sys/mman.h>
#include <jpeglib.h>
#include <pthread.h>
#include <linux/fb.h>
#include <vector>
#include <iostream>
#include <fstream>
#include <stdint.h>
#include <algorithm>//按键相关
int key_flag = 0;
int fd_key;void key_input_Init(const char* key_path)
{/*  打开按键文件设备 */if (0 > (fd_key = open(key_path, O_RDONLY))) {perror("open key_devices error");exit(-1);}
}/*  按键线程 */
static void *key_ctr_takephoto(void *arg)
{struct input_event in_ev = {0};     /*  按键事件的返回值会存储到此结构体中,通过判断结构体成员来判断按键的状态 */while(1){if (sizeof(struct input_event) !=read(fd_key, &in_ev, sizeof(struct input_event))) {perror("read error");exit(-1);}if (EV_KEY == in_ev.type){switch (in_ev.value) {case 0:printf("code<%d>: 松开\n", in_ev.code);break;case 1:printf("code<%d>: 按下\n", in_ev.code);key_flag = 1;break;case 2:printf("code<%d>: 长按\n", in_ev.code);break;}}}
}int main(int argc,char **argv)
{//按键初始化key_input_Init(argv[2]);/**  按键线程创建  **/  ret = pthread_create(&tid, NULL, key_ctr_takephoto, NULL);if (ret) {fprintf(stderr, "thread create failed: %s\n", strerror(ret));exit(-1);}if(key_flag == 1){/*  处理 */}
}

二、LCD显示

简要介绍:
在 Linux 系统中,显示设备被称为 FrameBuffer 设备(帧缓冲设备),所以 LCD 显示屏自然而言就是 FrameBuffer 设备。FrameBuffer 设备对应的设备文件为/dev/fbX(X 为数字, 0、 1、 2、 3 等) , Linux
下可支持多个 FrameBuffer 设备,最多可达 32 个,分别为/dev/fb0 到/dev/fb31。
在这里插入图片描述
在应用程序中,操作/dev/fbX 的一般步骤如下:

①、首先打开/dev/fbX 设备文件。
②、 使用 ioctl()函数获取到当前显示设备的参数信息,譬如屏幕的分辨率大小、像素格式,根据屏幕参
数计算显示缓冲区的大小。
③、通过存储映射 I/O 方式将屏幕的显示缓冲区映射到用户空间(mmap)。
④、映射成功后就可以直接读写屏幕的显示缓冲区,进行绘图或图片显示等操作了。
⑤、完成显示后, 调用 munmap()取消映射、并调用 close()关闭设备文件。
#include <stdio.h>
#include <stdlib.h>
#include <sys/types.h>
#include <sys/stat.h>
#include <fcntl.h>
#include <unistd.h>
#include <opencv2/opencv.hpp>
#include <opencv2/highgui/highgui.hpp>
#include <opencv2/imgproc/imgproc_c.h>
#include <opencv2/core.hpp> 
#include <linux/input.h>
#include <linux/videodev2.h>
#include <errno.h>
#include <string.h>
#include <sys/mman.h>
#include <pthread.h>
#include <linux/fb.h>
#include <vector>
#include <iostream>
#include <fstream>
#include <stdint.h>
#include <algorithm>//Lcd相关
#define SHOW_X 300
#define SHOW_Y 300
uint32_t bits_per_pixel;    //像素深度
uint32_t xres_virtual;    //LCD X 分辨率
static int fd_lcd = -1;
static unsigned short *lcd_screen_base = NULL;    //映射后的显存基地址/* lcd初始化  */
void Framebuffer_Lcd_Init(const char* framebuffer_device_path)
{struct fb_var_screeninfo screen_info;   //存储可变参数if ((fd_lcd = open(framebuffer_device_path, O_RDWR)) >= 0) {if (!ioctl(fd_lcd, FBIOGET_VSCREENINFO, &screen_info)) {xres_virtual = screen_info.xres_virtual;bits_per_pixel = screen_info.bits_per_pixel;}}else{std::cerr << "Failed to open framebuffer device." << std::endl;exit(-1);}/* 将显示缓冲区映射到进程地址空间 */size_t screen_size = xres_virtual * bits_per_pixel / 8;lcd_screen_base =static_cast<unsigned short*>(mmap(NULL, screen_size, PROT_WRITE | PROT_READ, MAP_SHARED, fd_lcd, 0));if ( (void *)lcd_screen_base == MAP_FAILED) {std::cerr << "Failed to map framebuffer device to memory." << std::endl;close(fd_lcd);exit(-1);}
}
void Framebuffer_Lcd_Cleanup()
{if (lcd_screen_base != NULL && lcd_screen_base != MAP_FAILED) {munmap(lcd_screen_base, xres_virtual * bits_per_pixel / 8);}if (fd_lcd >= 0) {close(fd_lcd);}
}
/* 显示图像,这里根据自己的需求进行更改 */
void Lcd_show_picture(const cv::Mat& image) {cv::Mat convert_image;cv::resize(image, convert_image, cv::Size(SHOW_X, SHOW_Y)); cv::Size2f image_size = convert_image.size();cv::Mat framebuffer_image;cv::cvtColor(convert_image, framebuffer_image, cv::COLOR_BGR2BGR565);for (int y = 0; y < image_size.height; y++) {memcpy(lcd_screen_base + y * xres_virtual * 2, convert_image.ptr(y), image_size.width * 2);}
}int main(int argc,char **argv)
{//Lcd初始化Framebuffer_Lcd_Init(argv[1]);if(...){Lcd_show_picture(frame);}
}

三、V4L2 摄像头应用编程

简要介绍:V4L2 是 Video for linux two 的简称,是 Linux 内核中视频类设备的一套驱动框架,为视频类设备驱动
开发和应用层提供了一套统一的接口规范。使用 V4L2 设备驱动框架注册的设备会在 Linux 系统/dev/目录下生成对应的设备节点文件,设备节点的名称通常为 videoX(X 标准一个数字编号, 0、 1、 2、 3……),每一个 videoX 设备文件就代表一个视频类设备。应用程序通过对 videoX 设备文件进行 I/O 操作来配置、使用设备类设备:
在这里插入图片描述
V4L2 设备驱动框架编程模式:

1. 首先是打开摄像头设备;
2. 查询设备的属性或功能;
3. 设置设备的参数,譬如像素格式、 帧大小、 帧率;
4. 申请帧缓冲、 内存映射;
5. 帧缓冲入队;
6. 开启视频采集;
7. 帧缓冲出队、对采集的数据进行处理;
8. 处理完后,再次将帧缓冲入队,往复;
9. 结束采集

代码中注释非常清楚,配合开发文档看,很容易就能看懂。

#include <stdio.h>
#include <stdlib.h>
#include <sys/types.h>
#include <sys/stat.h>
#include <fcntl.h>
#include <unistd.h>
#include <opencv2/opencv.hpp>
#include <opencv2/highgui/highgui.hpp>
#include <opencv2/imgproc/imgproc_c.h>
#include <opencv2/core.hpp> 
#include <linux/input.h>
#include <linux/videodev2.h>
#include <errno.h>
#include <string.h>
#include <sys/mman.h>
#include <pthread.h>
#include <linux/fb.h>
#include <vector>
#include <iostream>
#include <fstream>
#include <stdint.h>
#include <algorithm>int main(int argc,char **argv)
{struct v4l2_capability v_cap;  //存储查询到的设备属性/能力/功能,在开发之前需要通过VIDIOC_QUERYCAP、VIDIOC_ENUM_FMT、VIDIOC_G_FMT指令,使用ioctl查询摄像头的信息,以便后续开发struct v4l2_fmtdesc fmtdesc;  //存储枚举出摄像头支持的所有像素格式struct v4l2_frmsizeenum frmsize;  //存储枚举出来的摄像头所支持的所有视频采集分辨率(ioctl(int fd, VIDIOC_ENUM_FRAMESIZES, struct v4l2_frmsizeenum *frmsize);)struct v4l2_format fmt;  //存储 查看或设置当前的帧格式struct v4l2_streamparm streamparm;  //设置或获取当前的流类型相关参数,没啥用struct v4l2_requestbuffers reqbuf;  //存储申请帧缓冲的信息struct v4l2_buffer buf;  //存储查询到的帧缓冲队列的信息enum v4l2_buf_type type = V4L2_BUF_TYPE_VIDEO_CAPTURE;  //存储打开或关闭视频采集的信息void *frm_base[3];  //帧缓冲映射到用户空间的地址pthread_t tid;  //按键线程句柄int ret;int fd_cam = -1;//参数个数校验if (4 != argc) {fprintf(stderr, "usage: %s <output-lcd-dev>,%s <input-key-dev>,%s <input-camera-dev>", argv[1],argv[2],argv[3]);exit(-1);}//打开摄像头设备文件fd_cam = open(argv[3],O_RDWR);if(fd_cam < 0){fprintf(stderr, "open error: %s: %s\n", argv[3], strerror(errno));exit(-1);}else{printf("open-camera-success\n");}/* 查询设备的属性/能力/功能 : VIDIOC_QUERYCAP *///ioctl(int fd, VIDIOC_QUERYCAP, struct v4l2_capability *cap); //通过 ioctl()将获取到一个 struct v4l2_capability 类型的数据//可以通过判断结构体中的 capabilities 字段是否包含 V4L2_CAP_VIDEO_CAPTURE、 来确定它是否是一个摄像头设备。下面三点是获取参数示例/* 1、判断摄像头是否可以cap图像 *///ioctl(fd, VIDIOC_QUERYCAP, &v_cap);//if (!(V4L2_CAP_VIDEO_CAPTURE & v_cap.capabilities)) {//fprintf(stderr, "Error: No capture video device!\n");//return -1;//}//else//{//printf("have capture video device!\n");//}/* 2、枚举出摄像头所支持的所有像素格式以及描述信息 : 支持yvuv和jpeg*///fmtdesc.index = 0;//fmtdesc.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;//while (0 == ioctl(fd, VIDIOC_ENUM_FMT, &fmtdesc)) {//printf("fmt: %s <0x%x>\n", fmtdesc.description, fmtdesc.pixelformat);//fmtdesc.index++;//}/* 3、枚举出摄像头所支持的frame_size:1280*720;800*600;640*480;......*///frmsize.index = 0;//frmsize.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;//frmsize.pixel_format = V4L2_PIX_FMT_YUYV;//while (0 == ioctl(fd, VIDIOC_ENUM_FRAMESIZES, &frmsize)) {//printf("frame_size<%d*%d>\n", frmsize.discrete.width, frmsize.discrete.height);//frmsize.index++;//}/* 设置帧格式信息 : VIDIOC_S_FMT (要设置像素格式,首先得知道该设备支持哪些像素格式,ioctl(int fd, VIDIOC_ENUM_FMT, struct v4l2_fmtdesc *fmtdesc);)*/fmt.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;  //type 字 段 需 要 在 调 用 ioctl() 之 前 设 置 它 的 值if (0 > ioctl(fd_cam, VIDIOC_G_FMT, &fmt)) { //将获取到的帧格式信息存储到fmt结构体对象中perror("ioctl error");return -1;}printf("width:%d, height:%d format:%d\n", fmt.fmt.pix.width, fmt.fmt.pix.height, fmt.fmt.pix.pixelformat);fmt.fmt.pix.width = 1280;  //根据自己的需求设置帧格式信息fmt.fmt.pix.height = 720;fmt.fmt.pix.pixelformat = V4L2_PIX_FMT_YUYV;  //设置成YUYV格式,因为我这个usb摄像头只支持这个格式if (0 > ioctl(fd_cam, VIDIOC_S_FMT, &fmt)) { perror("ioctl error");return -1;}/**  申请帧缓冲队列 : VIDIOC_REQBUFS (读取摄像头数据的方式有两种,一种是 read 方式另一种则是 streaming 方式,使用streaming I/O 方式,我们需要向设备申请帧缓冲,并将帧缓冲映射到应用程序进程地址空间中,帧缓冲顾名思义就是用于存储一帧图像数据的缓冲区)**/   reqbuf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;//type 字 段 需 要 在 调 用 ioctl() 之 前 设 置 它 的 值,表示是视频流采集reqbuf.count = 3; //申请帧缓冲的数量reqbuf.memory = V4L2_MEMORY_MMAP;//通常将 memory 设置为 V4L2_MEMORY_MMAP 即可if (0 > ioctl(fd_cam, VIDIOC_REQBUFS, &reqbuf)) {fprintf(stderr, "ioctl error: VIDIOC_REQBUFS: %s\n", strerror(errno));return -1;}//streaming I/O 方式会在内核空间中维护一个帧缓冲队列, 驱动程序会将从摄像头读取的一帧数据写入到队列中的一个帧缓冲,接着将下一帧数据写入到队列中的下一个帧缓冲;当应用程序需要读取一帧数据时,需要从队列中取出一个装满一帧数据的帧缓冲,这个取出过程就叫做出队;当应用程序处理完这一帧数据后,需要再把这个帧缓冲加入到内核的帧缓冲队列中,这个过程叫做入队!/**  将帧缓冲队列映射到进程地址空间:mmap,之后直接操作这块地址就可以实现视频数据的读取(上一步申请的帧缓冲, 该缓冲区实质上是由内核所维护的,应用程序不能直接读
取该缓冲区的数据,我们需要将其映射到用户空间中)  **/   buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;buf.memory = V4L2_MEMORY_MMAP;for (buf.index = 0; buf.index < reqbuf.count; buf.index++) {ioctl(fd_cam, VIDIOC_QUERYBUF, &buf);  //查询帧缓冲:VIDIOC_QUERYBUF,信息存储到buf结构体中frm_base[buf.index] = mmap(NULL, buf.length,PROT_READ | PROT_WRITE, MAP_SHARED,fd_cam, buf.m.offset);if (MAP_FAILED == frm_base[buf.index]) {perror("mmap error");return -1;}}/**  帧缓冲入队操作 : VIDIOC_QBUF (将三个帧缓冲放入内核的帧缓冲队列(入队操作)中) **/   buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;buf.memory = V4L2_MEMORY_MMAP;for (buf.index = 0; buf.index < 3; buf.index++) {if (0 > ioctl(fd_cam, VIDIOC_QBUF, &buf)) {perror("ioctl error");return -1;}}/**  开启视频采集 :VIDIOC_STREAMON (将三个帧缓冲放入到帧缓冲队列中之后,接着便可以打开摄像头、开启图像采集了)  **/  if (0 > ioctl(fd_cam, VIDIOC_STREAMON, &type)) {perror("ioctl error");return -1;}/**  读取数据、对数据进行处理  **/   buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;buf.memory = V4L2_MEMORY_MMAP;while(1){for(buf.index = 0; buf.index < 3; buf.index++) {ioctl(fd_cam, VIDIOC_DQBUF, &buf); //帧缓冲出队操作:VIDIOC_DQBUF(直接读取每一个帧缓冲的在用户空间的映射区即可读取到摄像头采集的每一帧图像数据。在读取数据之前,需要将帧缓冲从内核的帧缓冲队列中取出,这个操作叫做帧缓冲出队)if(....){// 处理这一帧数据cv::Mat frame(fmt.fmt.pix.height, fmt.fmt.pix.width, CV_8UC2, frm_base[buf.index]); // 创建一个与帧数据相同尺寸的图像cv::Mat converted; // 用于转换格式的临时图像// 将YUYV格式的图像转换为BGR格式cv::cvtColor(frame, converted, cv::COLOR_YUV2BGR_YUYV);// 保存图像std::string filename = "frame.jpg";cv::imwrite(filename, converted);/* 这里可以添加深度学习模型推理的相关代码(建议是在已经能够读取图片并进行推理的代码中,移植进本代码)  *//*情况1:只想通过按键按下之后,推理一张图片并将结果显示在lcd屏幕上例如:给出伪代码①读取保存的jpg图像②图像格式转换,送入模型推理③后处理④调用lcd显示函数,将经过后处理的结果图送入lcd进行显示情况2:实时将推理结果显示到lcd屏幕上,那么就不需要这个key_flag判断,直接进行推理,将推理结果图片进行显示即可。需要修改图片格式,以适配lcd显示的输入图像要求。(大部分开发板都是可以支持opencv的高级函数直接读取摄像头图像数据的,本代码适合正在学习嵌入式应用开发的小伙伴,学习应用层如何通过v4l2驱动框架来实现摄像头数据采集。如果觉得没必要的话,若是板子支持opencv的capture调用,那就直接用,这里的按键和lcd还是有使用价值的;若是板子不直接支持opencv的capture调用,那就需要在开发的虚拟机环境中,使用交叉编译工具链交叉编译完整的opencv,这样就能调用capture函数直接读取摄像头数据了,注:本代码是在rv1126的虚拟机环境中开发,交叉编译之后生成的可执行文件再放到板端运行,可以参考博客中另一篇文章,关于交叉编译opencv的。)*/}ioctl(fd_cam, VIDIOC_QBUF, &buf);  //一帧结束之后再次帧缓冲入队操作}}exit(-1);
}

四、完整代码

#include <stdio.h>
#include <stdlib.h>
#include <sys/types.h>
#include <sys/stat.h>
#include <fcntl.h>
#include <unistd.h>
#include <opencv2/opencv.hpp>
#include <opencv2/highgui/highgui.hpp>
#include <opencv2/imgproc/imgproc_c.h>
#include <opencv2/core.hpp> 
#include <linux/input.h>
#include <linux/videodev2.h>
#include <errno.h>
#include <string.h>
#include <sys/mman.h>
#include <pthread.h>
#include <linux/fb.h>
#include <vector>
#include <iostream>
#include <fstream>
#include <stdint.h>
#include <algorithm>//按键相关
int key_flag = 0;
int fd_key;
//Lcd相关
#define SHOW_X 300
#define SHOW_Y 300
uint32_t bits_per_pixel;
uint32_t xres_virtual;
static int fd_lcd = -1;
static unsigned short *lcd_screen_base = NULL;void Framebuffer_Lcd_Init(const char* framebuffer_device_path)
{struct fb_var_screeninfo screen_info;if ((fd_lcd = open(framebuffer_device_path, O_RDWR)) >= 0) {if (!ioctl(fd_lcd, FBIOGET_VSCREENINFO, &screen_info)) {xres_virtual = screen_info.xres_virtual;bits_per_pixel = screen_info.bits_per_pixel;}}else{std::cerr << "Failed to open framebuffer device." << std::endl;exit(-1);}size_t screen_size = xres_virtual * bits_per_pixel / 8;lcd_screen_base =static_cast<unsigned short*>(mmap(NULL, screen_size, PROT_WRITE | PROT_READ, MAP_SHARED, fd_lcd, 0));if ( (void *)lcd_screen_base == MAP_FAILED) {std::cerr << "Failed to map framebuffer device to memory." << std::endl;close(fd_lcd);exit(-1);}
}
void Framebuffer_Lcd_Cleanup()
{if (lcd_screen_base != NULL && lcd_screen_base != MAP_FAILED) {munmap(lcd_screen_base, xres_virtual * bits_per_pixel / 8);}if (fd_lcd >= 0) {close(fd_lcd);}
}
void Lcd_show_picture(const cv::Mat& image) {cv::Mat transposed_image;cv::resize(image, transposed_image, cv::Size(SHOW_X, SHOW_Y)); cv::Size2f image_size = transposed_image.size();cv::Mat framebuffer_compat;switch (bits_per_pixel) {case 16:cv::cvtColor(transposed_image, framebuffer_compat, cv::COLOR_BGR2BGR565);for (int y = 0; y < image_size.height; y++) {memcpy(lcd_screen_base + y * xres_virtual * 2, framebuffer_compat.ptr(y), image_size.width * 2);}break;case 32: {std::vector<cv::Mat> split_bgr;cv::split(transposed_image, split_bgr);split_bgr.push_back(cv::Mat(image_size, CV_8UC1, cv::Scalar(255)));cv::merge(split_bgr, framebuffer_compat);for (int y = 0; y < image_size.height; y++) {memcpy(lcd_screen_base + y * xres_virtual * 4, framebuffer_compat.ptr(y), image_size.width * 4);}} break;default:std::cerr << "Unsupported depth of framebuffer." << std::endl;break;}   
}void key_input_Init(const char* key_path)
{if (0 > (fd_key = open(key_path, O_RDONLY))) {perror("open key_devices error");exit(-1);}
}static void *key_ctr_takephoto(void *arg)
{struct input_event in_ev = {0};while(1){if (sizeof(struct input_event) !=read(fd_key, &in_ev, sizeof(struct input_event))) {perror("read error");exit(-1);}if (EV_KEY == in_ev.type){switch (in_ev.value) {case 0:printf("code<%d>: 松开\n", in_ev.code);break;case 1:printf("code<%d>: 按下\n", in_ev.code);key_flag = 1;break;case 2:printf("code<%d>: 长按\n", in_ev.code);break;}}}
}int main(int argc,char **argv)
{struct v4l2_capability v_cap;  //存储查询到的设备属性/能力/功能,在开发之前需要通过VIDIOC_QUERYCAP、VIDIOC_ENUM_FMT、VIDIOC_G_FMT指令,使用ioctl查询摄像头的信息,以便后续开发struct v4l2_fmtdesc fmtdesc;  //存储枚举出摄像头支持的所有像素格式struct v4l2_frmsizeenum frmsize;  //存储枚举出来的摄像头所支持的所有视频采集分辨率(ioctl(int fd, VIDIOC_ENUM_FRAMESIZES, struct v4l2_frmsizeenum *frmsize);)struct v4l2_format fmt;  //存储 查看或设置当前的帧格式struct v4l2_streamparm streamparm;  //设置或获取当前的流类型相关参数,没啥用struct v4l2_requestbuffers reqbuf;  //存储申请帧缓冲的信息struct v4l2_buffer buf;  //存储查询到的帧缓冲队列的信息enum v4l2_buf_type type = V4L2_BUF_TYPE_VIDEO_CAPTURE;  //存储打开或关闭视频采集的信息void *frm_base[3];  //帧缓冲映射到用户空间的地址pthread_t tid;  //按键线程句柄int ret;int fd_cam = -1;//参数个数校验if (4 != argc) {fprintf(stderr, "usage: %s <output-lcd-dev>,%s <input-key-dev>,%s <input-camera-dev>", argv[1],argv[2],argv[3]);exit(-1);}//Lcd初始化Framebuffer_Lcd_Init(argv[1]);//按键初始化key_input_Init(argv[2]);//打开摄像头设备文件fd_cam = open(argv[3],O_RDWR);if(fd_cam < 0){fprintf(stderr, "open error: %s: %s\n", argv[3], strerror(errno));exit(-1);}else{printf("open-camera-success\n");}/* 查询设备的属性/能力/功能 : VIDIOC_QUERYCAP *///ioctl(int fd, VIDIOC_QUERYCAP, struct v4l2_capability *cap); //通过 ioctl()将获取到一个 struct v4l2_capability 类型的数据//可以通过判断结构体中的 capabilities 字段是否包含 V4L2_CAP_VIDEO_CAPTURE、 来确定它是否是一个摄像头设备。下面三点是获取参数示例/* 1、判断摄像头是否可以cap图像 *///ioctl(fd, VIDIOC_QUERYCAP, &v_cap);//if (!(V4L2_CAP_VIDEO_CAPTURE & v_cap.capabilities)) {//fprintf(stderr, "Error: No capture video device!\n");//return -1;//}//else//{//printf("have capture video device!\n");//}/* 2、枚举出摄像头所支持的所有像素格式以及描述信息 : 支持yvuv和jpeg*///fmtdesc.index = 0;//fmtdesc.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;//while (0 == ioctl(fd, VIDIOC_ENUM_FMT, &fmtdesc)) {//printf("fmt: %s <0x%x>\n", fmtdesc.description, fmtdesc.pixelformat);//fmtdesc.index++;//}/* 3、枚举出摄像头所支持的frame_size:1280*720;800*600;640*480;......*///frmsize.index = 0;//frmsize.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;//frmsize.pixel_format = V4L2_PIX_FMT_YUYV;//while (0 == ioctl(fd, VIDIOC_ENUM_FRAMESIZES, &frmsize)) {//printf("frame_size<%d*%d>\n", frmsize.discrete.width, frmsize.discrete.height);//frmsize.index++;//}/* 设置帧格式信息 : VIDIOC_S_FMT (要设置像素格式,首先得知道该设备支持哪些像素格式,ioctl(int fd, VIDIOC_ENUM_FMT, struct v4l2_fmtdesc *fmtdesc);)*/fmt.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;  //type 字 段 需 要 在 调 用 ioctl() 之 前 设 置 它 的 值if (0 > ioctl(fd_cam, VIDIOC_G_FMT, &fmt)) { //将获取到的帧格式信息存储到fmt结构体对象中perror("ioctl error");return -1;}printf("width:%d, height:%d format:%d\n", fmt.fmt.pix.width, fmt.fmt.pix.height, fmt.fmt.pix.pixelformat);fmt.fmt.pix.width = 1280;  //根据自己的需求设置帧格式信息fmt.fmt.pix.height = 720;fmt.fmt.pix.pixelformat = V4L2_PIX_FMT_YUYV;  //设置成YUYV格式,因为我这个usb摄像头只支持这个格式if (0 > ioctl(fd_cam, VIDIOC_S_FMT, &fmt)) { perror("ioctl error");return -1;}/**  申请帧缓冲队列 : VIDIOC_REQBUFS (读取摄像头数据的方式有两种,一种是 read 方式另一种则是 streaming 方式,使用streaming I/O 方式,我们需要向设备申请帧缓冲,并将帧缓冲映射到应用程序进程地址空间中,帧缓冲顾名思义就是用于存储一帧图像数据的缓冲区)**/   reqbuf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;//type 字 段 需 要 在 调 用 ioctl() 之 前 设 置 它 的 值,表示是视频流采集reqbuf.count = 3; //申请帧缓冲的数量reqbuf.memory = V4L2_MEMORY_MMAP;//通常将 memory 设置为 V4L2_MEMORY_MMAP 即可if (0 > ioctl(fd_cam, VIDIOC_REQBUFS, &reqbuf)) {fprintf(stderr, "ioctl error: VIDIOC_REQBUFS: %s\n", strerror(errno));return -1;}//streaming I/O 方式会在内核空间中维护一个帧缓冲队列, 驱动程序会将从摄像头读取的一帧数据写入到队列中的一个帧缓冲,接着将下一帧数据写入到队列中的下一个帧缓冲;当应用程序需要读取一帧数据时,需要从队列中取出一个装满一帧数据的帧缓冲,这个取出过程就叫做出队;当应用程序处理完这一帧数据后,需要再把这个帧缓冲加入到内核的帧缓冲队列中,这个过程叫做入队!/**  将帧缓冲队列映射到进程地址空间:mmap,之后直接操作这块地址就可以实现视频数据的读取(上一步申请的帧缓冲, 该缓冲区实质上是由内核所维护的,应用程序不能直接读
取该缓冲区的数据,我们需要将其映射到用户空间中)  **/   buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;buf.memory = V4L2_MEMORY_MMAP;for (buf.index = 0; buf.index < reqbuf.count; buf.index++) {ioctl(fd_cam, VIDIOC_QUERYBUF, &buf);  //查询帧缓冲:VIDIOC_QUERYBUF,信息存储到buf结构体中frm_base[buf.index] = mmap(NULL, buf.length,PROT_READ | PROT_WRITE, MAP_SHARED,fd_cam, buf.m.offset);if (MAP_FAILED == frm_base[buf.index]) {perror("mmap error");return -1;}}/**  帧缓冲入队操作 : VIDIOC_QBUF (将三个帧缓冲放入内核的帧缓冲队列(入队操作)中) **/   buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;buf.memory = V4L2_MEMORY_MMAP;for (buf.index = 0; buf.index < 3; buf.index++) {if (0 > ioctl(fd_cam, VIDIOC_QBUF, &buf)) {perror("ioctl error");return -1;}}/**  开启视频采集 :VIDIOC_STREAMON (将三个帧缓冲放入到帧缓冲队列中之后,接着便可以打开摄像头、开启图像采集了)  **/  if (0 > ioctl(fd_cam, VIDIOC_STREAMON, &type)) {perror("ioctl error");return -1;}/**  按键线程创建  **/  ret = pthread_create(&tid, NULL, key_ctr_takephoto, NULL);if (ret) {fprintf(stderr, "thread create failed: %s\n", strerror(ret));exit(-1);}/**  读取数据、对数据进行处理  **/   buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;buf.memory = V4L2_MEMORY_MMAP;while(1){for(buf.index = 0; buf.index < 3; buf.index++) {ioctl(fd_cam, VIDIOC_DQBUF, &buf); //帧缓冲出队操作:VIDIOC_DQBUF(直接读取每一个帧缓冲的在用户空间的映射区即可读取到摄像头采集的每一帧图像数据。在读取数据之前,需要将帧缓冲从内核的帧缓冲队列中取出,这个操作叫做帧缓冲出队)if(key_flag == 1){// 处理这一帧数据cv::Mat frame(fmt.fmt.pix.height, fmt.fmt.pix.width, CV_8UC2, frm_base[buf.index]); // 创建一个与帧数据相同尺寸的图像cv::Mat converted; // 用于转换格式的临时图像// 将YUYV格式的图像转换为BGR格式cv::cvtColor(frame, converted, cv::COLOR_YUV2BGR_YUYV);// 保存图像std::string filename = "frame.jpg";cv::imwrite(filename, converted);/* 这里可以添加深度学习模型推理的相关代码(建议是在已经能够读取图片并进行推理的代码中,移植进本代码)  *//*情况1:只想通过按键按下之后,推理一张图片并将结果显示在lcd屏幕上例如:给出伪代码①读取保存的jpg图像②图像格式转换,送入模型推理③后处理④调用lcd显示函数,将经过后处理的结果图送入lcd进行显示情况2:实时将推理结果显示到lcd屏幕上,那么就不需要这个key_flag判断,直接进行推理,将推理结果图片进行显示即可。需要修改图片格式,以适配lcd显示的输入图像要求。(大部分开发板都是可以支持opencv的高级函数直接读取摄像头图像数据的,本代码适合正在学习嵌入式应用开发的小伙伴,学习应用层如何通过v4l2驱动框架来实现摄像头数据采集。如果觉得没必要的话,若是板子支持opencv的capture调用,那就直接用,这里的按键和lcd还是有使用价值的;若是板子不直接支持opencv的capture调用,那就需要在开发的虚拟机环境中,使用交叉编译工具链交叉编译完整的opencv,这样就能调用capture函数直接读取摄像头数据了,注:本代码是在rv1126的虚拟机环境中开发,交叉编译之后生成的可执行文件再放到板端运行,可以参考博客中另一篇文章,关于交叉编译opencv的。)*/key_flag = 0;}ioctl(fd_cam, VIDIOC_QBUF, &buf);  //一帧结束之后再次帧缓冲入队操作}}exit(-1);
}

将这里面自己需要用到的移植到自己的程序中即可,这里没用到.h文件,只需要写一个cmakelist即可编译运行。
cmakelists如下:

cmake_minimum_required(VERSION 3.10)project(01)# 设置C++标准
set(CMAKE_CXX_STANDARD 11)# 寻找OpenCV包
find_package(OpenCV 4.2.0 REQUIRED)# 添加可执行文件
add_executable(test test.cpp)# 添加依赖库
find_package(Threads REQUIRED)  # 链接依赖库
target_link_libraries(testThreads::Threads  # 多线程${OpenCV_LIBS}
)

代码目录结构如下:
在这里插入图片描述

cd build
cmake ..
make
./test /dev/fb0 /dev/input/event1 /dev/video8
这里的设备文件需要根据自己的进行更换

接下来是c++面向对象的代码,旨在练习:
main.cpp

#include "v4l2_cam.h"//鎸夐敭鐩稿叧
int key_flag = 0;static void *key_ctr_takephoto(void *arg)
{unsigned char key;while(1){key = getchar();if (key == '\n') { key_flag = 1;}}
}int main(int argc,char **argv)
{int ret;pthread_t tid;v4l2_camera v1;if (2 != argc) {fprintf(stderr, "usage:%s <input-camera-dev>", argv[1]);exit(-1);}ret = pthread_create(&tid, NULL, key_ctr_takephoto, NULL);if (ret) {fprintf(stderr, "thread create failed: %s\n", strerror(ret));exit(-1);}v1.camera_init(argv[1]);while(1){if(key_flag == 1){v1.Start_video_captureandprocess();key_flag = 0;}}exit(-1);
}

v4l2_cam.cpp:

#include "v4l2_cam.h"v4l2_camera::v4l2_camera()
{}void v4l2_camera::camera_init(char* arg)
{struct v4l2_capability v_cap;  //瀛樺偍鏌ヨ鍒扮殑璁惧灞炴€?鑳藉姏/鍔熻兘锛屽湪寮€鍙戜箣鍓嶉渶瑕侀€氳繃VIDIOC_QUERYCAP銆乂IDIOC_ENUM_FMT銆乂IDIOC_G_FMT鎸囦护锛屼娇鐢╥octl鏌ヨ鎽勫儚澶寸殑淇℃伅锛屼互渚垮悗缁紑鍙?struct v4l2_fmtdesc fmtdesc;  //瀛樺偍鏋氫妇鍑烘憚鍍忓ご鏀寔鐨勬墍鏈夊儚绱犳牸寮?struct v4l2_frmsizeenum frmsize;  //瀛樺偍鏋氫妇鍑烘潵鐨勬憚鍍忓ご鎵€鏀寔鐨勬墍鏈夎棰戦噰闆嗗垎杈ㄧ巼(ioctl(int fd, VIDIOC_ENUM_FRAMESIZES, struct v4l2_frmsizeenum *frmsize);)struct v4l2_streamparm streamparm;  //璁剧疆鎴栬幏鍙栧綋鍓嶇殑娴佺被鍨嬬浉鍏冲弬鏁?娌″暐鐢?struct v4l2_requestbuffers reqbuf;  //瀛樺偍鐢宠甯х紦鍐茬殑淇℃伅enum v4l2_buf_type type = V4L2_BUF_TYPE_VIDEO_CAPTURE;  //瀛樺偍鎵撳紑鎴栧叧闂棰戦噰闆嗙殑淇℃伅//鎵撳紑鎽勫儚澶磋澶囨枃浠?v4l2_camera::fd_cam = open(arg,O_RDWR);if(v4l2_camera::fd_cam < 0){fprintf(stderr, "open error: %s: %s\n", arg, strerror(errno));exit(-1);}else{printf("open-camera-success\n");}/* 璁剧疆甯ф牸寮忎俊鎭?: VIDIOC_S_FMT  */fmt.type = V4L2_BUF_TYPE_VIDEO_CAPTURE; if (0 > ioctl(v4l2_camera::fd_cam, VIDIOC_G_FMT, &fmt)) { perror("ioctl error");exit(-1);}printf("width:%d, height:%d format:%d\n", fmt.fmt.pix.width, fmt.fmt.pix.height, fmt.fmt.pix.pixelformat);fmt.fmt.pix.width = 1280;  //鏍规嵁鑷繁鐨勯渶姹傝缃抚鏍煎紡淇℃伅fmt.fmt.pix.height = 720;fmt.fmt.pix.pixelformat = V4L2_PIX_FMT_YUYV;  //璁剧疆鎴怸UYV鏍煎紡锛屽洜涓烘垜杩欎釜usb鎽勫儚澶村彧鏀寔杩欎釜鏍煎紡if (0 > ioctl(v4l2_camera::fd_cam, VIDIOC_S_FMT, &fmt)) { perror("ioctl error");exit(-1);}/**  鐢宠甯х紦鍐查槦鍒?: VIDIOC_REQBUFS **/   reqbuf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;//type 瀛?娈?闇€ 瑕?鍦?璋?鐢?ioctl() 涔?鍓?璁?缃?瀹?鐨?鍊硷紝琛ㄧず鏄棰戞祦閲囬泦reqbuf.count = 3; //鐢宠甯х紦鍐茬殑鏁伴噺reqbuf.memory = V4L2_MEMORY_MMAP;//閫氬父灏?memory 璁剧疆涓?V4L2_MEMORY_MMAP 鍗冲彲if (0 > ioctl(v4l2_camera::fd_cam, VIDIOC_REQBUFS, &reqbuf)) {fprintf(stderr, "ioctl error: VIDIOC_REQBUFS: %s\n", strerror(errno));exit(-1);}buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;buf.memory = V4L2_MEMORY_MMAP;for (buf.index = 0; buf.index < reqbuf.count; buf.index++) {ioctl(v4l2_camera::fd_cam, VIDIOC_QUERYBUF, &buf);  //鏌ヨ甯х紦鍐?VIDIOC_QUERYBUF锛屼俊鎭瓨鍌ㄥ埌buf缁撴瀯浣撲腑frm_base[buf.index] = mmap(NULL, buf.length,PROT_READ | PROT_WRITE, MAP_SHARED,v4l2_camera::fd_cam, buf.m.offset);if (MAP_FAILED == v4l2_camera::frm_base[buf.index]) {perror("mmap error");exit(-1);}}/**  甯х紦鍐插叆闃熸搷浣?锛?VIDIOC_QBUF 锛堝皢涓変釜甯х紦鍐叉斁鍏ュ唴鏍哥殑甯х紦鍐查槦鍒楋紙鍏ラ槦鎿嶄綔锛変腑锛?**/   buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;buf.memory = V4L2_MEMORY_MMAP;for (buf.index = 0; buf.index < 3; buf.index++) {if (0 > ioctl(v4l2_camera::fd_cam, VIDIOC_QBUF, &buf)) {perror("ioctl error");exit(-1);}}buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;buf.memory = V4L2_MEMORY_MMAP;if (0 > ioctl(v4l2_camera::fd_cam, VIDIOC_STREAMON, &type)) {perror("ioctl error");exit(-1);}
}void v4l2_camera::Start_video_captureandprocess()
{for(buf.index = 0; buf.index < 1; buf.index++) {ioctl(fd_cam, VIDIOC_DQBUF, &buf); //帧缓冲出队操作:VIDIOC_DQBUF(直接读取每一个帧缓冲的在用户空间的映射区即可读取到摄像头采集的每一帧图像数据。在读取数据之前,需要将帧缓冲从内核的帧缓冲队列中取出,这个操作叫做帧缓冲出队)// 处理这一帧数据cv::Mat frame(fmt.fmt.pix.height, fmt.fmt.pix.width, CV_8UC2, frm_base[buf.index]); // 创建一个与帧数据相同尺寸的图像cv::Mat converted; // 用于转换格式的临时图像// 将YUYV格式的图像转换为BGR格式cv::cvtColor(frame, converted, cv::COLOR_YUV2BGR_YUYV);// 保存图像std::string filename = "frame.jpg";cv::imwrite(filename, converted);std::cout << "picture save success" << std::endl;ioctl(fd_cam, VIDIOC_QBUF, &buf);  //一帧结束之后再次帧缓冲入队操作}
}

v4l2_cam.h:

#include <stdio.h>
#include <stdlib.h>
#include <sys/types.h>
#include <sys/stat.h>
#include <fcntl.h>
#include <unistd.h>
#include <opencv2/opencv.hpp>
#include <opencv2/highgui/highgui.hpp>
#include <opencv2/imgproc/imgproc_c.h>
#include <opencv2/core.hpp> 
#include <linux/input.h>
#include <linux/videodev2.h>
#include <errno.h>
#include <string.h>
#include <sys/mman.h>
#include <jpeglib.h>
#include <pthread.h>
#include <linux/fb.h>
#include <vector>
#include <iostream>
#include <fstream>
#include <stdint.h>
#include <algorithm>class v4l2_camera
{
public:v4l2_camera();int fd_cam = -1;void *frm_base[3];  //甯х紦鍐叉槧灏勫埌鐢ㄦ埛绌洪棿鐨勫湴鍧€struct v4l2_buffer buf; struct v4l2_format fmt;void camera_init(char *argv);void Start_video_captureandprocess();
};

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/382004.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

国际化技术参考

一、概述 国际化就是用户可以选择对应的语言,页面展示成对应的语言; 一个系统的国际化按照信息的所在位置,可以分为三种国际化信息: 前端页面信息后端提示信息数据库的字典类信息二、前端页面国际化 使用i18n库实现国际化 i18n国际化库思路:通过jquery或者dom操作拿到需…

15现代循环神经网络—GRU与LSTM

目录 1.门控循环单元 GRU关注一个序列门候选隐状态(candidate hidden state)隐状态总结从零开始代码实现代码简洁实现2.长短期记忆网络 LSTM门候选记忆单元(candidate memory cell)记忆单元隐状态代码1.门控循环单元 GRU GRU 是最近几年提出来的,在 LSTM 之后,是一个稍微简…

Spring Boot + Spring Cloud 入门

运行配置 java -jar spring-boot-config-0.0.1-SNAPSHOT.jar --spring.profiles.activetest --my1.age32 --debugtrue "D:\Program Files\Redis\redis-server.exe" D:\Program Files\Redis\redis.windows.conf "D:\Program Files\Redis\redis-cli.exe" &q…

开源安全态势感知平台Security Onion

简介 Security Onion是一款由安全防御人员为安全防御人员构建的免费开放平台。它包括网络可见性、主机可见性、入侵检测蜜罐、日志管理和案例管理等功能。详细信息可以查看官网Security Onion Solutions 在网络可见性方面&#xff0c;Security Onion提供了基于签名的检测&…

一文了解LLM大模型会话 QA 增强

概述 在日常对话中&#xff0c;由于我们的大脑记录了对话的历史信息&#xff0c;为了减少冗余的内容&#xff0c;在进行回复时通常会存在指代和省略的情况。因为人脑具有记忆的能力&#xff0c;能够很好地重建对话历史的重要信息&#xff0c;自动补全或者替换对方当前轮的回复…

创建最佳实践创建 XML 站点地图--SEO

您是否正在努力让您的网站被搜索引擎索引&#xff1f;您想提高您网站的搜索引擎知名度吗&#xff1f;如果是&#xff0c;您可能会错过 XML 站点地图的重要性。XML 站点地图在改善您网站的 SEO 方面发挥着至关重要的作用。‍ XML 站点地图是您网站结构的蓝图&#xff0c;可帮助…

详解Stable Diffusion 原理图

参考英文文献&#xff1a;The Illustrated Stable Diffusion – Jay Alammar – Visualizing machine learning one concept at a time. 在这个Stable Diffusion模型的架构图中&#xff0c;VAE&#xff08;变分自编码器&#xff09;模型对应的是图中的 E 和 D 部分。 具体来说…

【深入理解SpringCloud微服务】深入理解Eureka核心原理

深入理解Eureka核心原理 Eureka整体设计Eureka服务端启动Eureka三级缓存Eureka客户端启动 Eureka整体设计 Eureka是一个经典的注册中心&#xff0c;通过http接收客户端的服务发现和服务注册请求&#xff0c;使用内存注册表保存客户端注册上来的实例信息。 Eureka服务端接收的…

JS 鼠标拖动实现移动滚动条的滚动效果

效果 现在很多场景都以移动端为基本开发&#xff0c;比如说需要隐藏滚动条&#xff0c;在pc上实现鼠标拖动和手机触摸拖动差不多的效果。 实现 以mdn的overflow属性中范例为基础&#xff0c;内容溢出时候可使用overflow: auto;和overflow: scroll;实现滚动效果。 要实现鼠标…

聚焦智慧出行,TDengine 与路特斯科技再度携手

在全球汽车行业向电动化和智能化转型的过程中&#xff0c;智能驾驶技术正迅速成为行业的焦点。随着消费者对出行效率、安全性和便利性的需求不断提升&#xff0c;汽车制造商们需要在全球范围内实现低延迟、高质量的数据传输和处理&#xff0c;以提升用户体验。在此背景下&#…

java用freemarker导出word

freemarker导出word 第一步、将word转换为xml格式第二步、将转换后的xml文件修改后缀为ftl后复制到项目 resources 目录下&#xff08;可以自己新建一个文件夹放在文件夹中&#xff09;第三步、格式化xml代码&#xff08;如果问价太大可能会无法格式化&#xff09;这时候需要在…

Windows上让Qt支持https请求

一.前言 Qt默认其实支持https的&#xff0c;但需要openssl的支持。所以有时候你代码中写了支持https的请求连接&#xff0c;发现程序可以运行&#xff0c;但到了https请求时会报错&#xff0c;如下&#xff1a; 这就是没有openssl的支持&#xff0c;导致QSslSocket无法进行ht…

从理论到实践:如何用 TDengine 打造完美数据模型​

在用 TDengine 进行数据建模之前&#xff0c;我们需要回答两个关键问题&#xff1a;建模的目标用户是谁&#xff1f;他们的具体需求是什么&#xff1f;在一个典型的时序数据管理方案中&#xff0c;数据采集和数据应用是两个主要环节。如下图所示&#xff1a; 对于数据采集工程师…

浅谈断言之XML断言

浅谈断言之XML断言 XML断言是JMeter的一个组件&#xff0c;用于验证请求的响应数据是否符合XML结构。这对于测试返回XML格式数据的Web服务特别有用。 如何添加XML断言&#xff1f; 要在JMeter测试计划中添加XML断言&#xff0c;遵循以下步骤&#xff1a; 打开测试计划&…

适用于 Mac 或 MacBook 的最佳数据恢复软件

Apple 设计的电脑可靠且用户友好&#xff0c;但即使是最好的最新款 MacBook硬件也会出现故障。当您的存储出现问题时&#xff0c;数据恢复软件可以帮助您恢复丢失和损坏的文件。 数据丢失的另一个原因是有时会发生令人尴尬的错误。如果您不小心丢弃了所需的文件&#xff0c;然…

Web前端:HTML篇(二)元素属性

HTML 属性 属性是 HTML 元素提供的附加信息。 HTML 元素可以设置属性属性可以在元素中添加附加信息属性一般描述于开始标签属性总是以名称/值对的形式出现&#xff0c;比如&#xff1a;name"value"。 属性实例 HTML 链接由 <a> 标签定义。链接的地址在 href …

【启明智显分享】甲醛检测仪HMI方案:ESP32-S3方案4.3寸触摸串口屏,RS485、WIFI/蓝牙可选

今年&#xff0c;“串串房”一词频繁引发广大网友关注。“串串房”&#xff0c;也被称为“陷阱房”“贩子房”——炒房客以低价收购旧房子或者毛坯房&#xff0c;用极度节省成本的方式对房子进行装修&#xff0c;之后作为精修房高价租售&#xff0c;因甲醛等有害物质含量极高&a…

恐怖数字暗影:猜中才能逃离

大家可以看看这个&#xff0c;也很有意思&#xff01; 猜数字游戏&#xff08;老六版&#xff09;-CSDN博客 1、 剧情介绍 在一个阴暗潮湿的古堡中&#xff0c;你独自一人走进了一间散发着诡异气息的房间。房间的正中央有一张古老的桌子&#xff0c;上面放着一本泛黄的羊皮卷…

【详细的springboot自动装载原理】

1.默认提供的核心配置模块 springboot提供了 spring-boot-autoconfigure模块&#xff0c;该模块为springboot自动配置的核心模块&#xff0c;它初始化好了很多我们平时需要的配置类&#xff0c;那么有了这些配置类就能生效了吗&#xff1f;得需要一个东西在启动的时候去把它加…

【Langchain大语言模型开发教程】记忆

&#x1f517; LangChain for LLM Application Development - DeepLearning.AI 学习目标 1、Langchain的历史记忆 ConversationBufferMemory 2、基于窗口限制的临时记忆 ConversationBufferWindowMemory 3、基于Token数量的临时记忆 ConversationTokenBufferMemory 4、基于历史…