如何在 ROS 中使用 YOLO
- 如何在 2D 中检测人和大象
- 如何在 3D 中检测人和大象
有许多可用的深度学习库。您可能听说过:Keras、TensorFlow 和 Darknet。
在这里我们将使用 Darknet,因为它实现了 YOLOv3,这是一个对象检测模型。它非常快,尤其是在支持 CUDA 的系统中使用它时。它旨在进行实时检测,这对于机器人技术来说非常重要。
3.4 2D YOLO 检测
我们将首先使用适用于 ROS 的 YOLO 版本创建我们自己的启动:
roscd my_object_recognition_pkg
touch launch/yolo_v2_tiny.launch
yolo_v2_tiny.launch
<?xml version="1.0" encoding="utf-8"?><launch><!-- Use YOLOv3 --><arg name="network_param_file" default="$(find darknet_ros)/config/yolov2-tiny.yaml"/><!-- 设置输入 RGB ROS 相机主题。这是最重要的参数,也是您需要更改的唯一参数。--><arg name="image" default="/camera/rgb/image_raw" /><!-- Include main launch file --><include file="$(find darknet_ros)/launch/darknet_ros.launch"><arg name="network_param_file" value="$(arg network_param_file)"/><arg name="image" value="$(arg image)" /></include></launch>
YOLO 有不同的版本:v2、v3 和 v4。每个版本都适用于不同的 OpenCV 库,理论上每个新版本都运行得更好。
在本单元中,我们将使用 v2 Tiny(更快的版本),因为它对系统的影响较小且性能更快。
如果您想要原始源代码,请查看以下 Git:
YOLO Darknet ROS
Darknet ROS
Original Source Git
启动并查看输出:
# Set variables only for this course, locally you wont need it
QT_X11_NO_MITSHM=1
echo $QT_X11_NO_MITSHM
# Start yolo V2-tiny
roslaunch my_object_recognition_pkg yolo_v2_tiny.launch
注意:首次启动可能会导致 GTK 错误。不要惊慌。重新启动它应该可以正常工作。
移动 PR2 机器人,看看它如何检测不同的物体。
roslaunch pr2_tc_teleop keyboard_teleop.launch
3.5 使用 YOLO 进行 3D 物体检测和定位
这个由 Francisco Martin 创建的 Darknet_ROS_3D 结合使用 darknet_ros 和点云数据将检测结果与 3D 空间进行匹配,从而大致确定检测到的物体在 3D 空间中的位置。
这对于抓取、自主导航和许多其他应用至关重要。
roscd my_object_recognition_pkg
touch config/darknet_3d.yaml
touch launch/darknet_ros_3d.launch
darknet_ros_3d.launch
<launch><!-- Config camera image topic --><arg name="camera_rgb_topic" default="/camera/rgb/image_raw" /><!-- Console launch prefix --><arg name="launch_prefix" default=""/><!-- Config and weights folder. --><arg name="yolo_weights_path" default="$(find darknet_ros)/yolo_network_config/weights"/><arg name="yolo_config_path" default="$(find darknet_ros)/yolo_network_config/cfg"/><!-- ROS and network parameter files --><arg name="ros_param_file" default="$(find darknet_ros)/config/ros.yaml"/><arg name="network_param_file" default="$(find darknet_ros)/config/yolov2-tiny.yaml"/><!-- Load parameters --><rosparam command="load" ns="darknet_ros" file="$(arg network_param_file)"/><rosparam command="load" file="$(find darknet_ros)/config/ros.yaml"/><param name="darknet_ros/subscribers/camera_reading/topic" type="string" value="$(arg camera_rgb_topic)" /><!-- Start darknet and ros wrapper --><node pkg="darknet_ros" type="darknet_ros" name="darknet_ros" output="screen" launch-prefix="$(arg launch_prefix)"><param name="weights_path" value="$(arg yolo_weights_path)" /><param name="config_path" value="$(arg yolo_config_path)" /></node><!-- Start darknet ros 3d --><node pkg="darknet_ros_3d" type="darknet3d_node" name="darknet_3d" output="screen"><rosparam command="load" file="$(find my_object_recognition_pkg)/config/darknet_3d.yaml" /></node>
</launch>
darknet_3d.yaml
darknet_ros_topic: /darknet_ros/bounding_boxes
output_bbx3d_topic: /darknet_ros_3d/bounding_boxes
point_cloud_topic: /camera/depth_registered/points
working_frame: camera_rgb_optical_frame
mininum_detection_thereshold: 0.3
minimum_probability: 0.3
interested_classes: ["person", "elephant", "horse", "bottle", "toothbrush", "traffic light", "spoon", "scissors"]
<arg name="camera_rgb_topic" default="/camera/rgb/image_raw" />
我们需要设置输入 RGB 原始相机。
<arg name="network_param_file" default="$(find darknet_ros)/config/yolov2-tiny.yaml"/>
在这里,我们将再次设置 v2 Tiny。它速度很快,特别是如果你想在 RViz 中查看点云(这将对系统负载产生显着影响)。这是最好的选择。
<rosparam command="load" file="$(find my_object_recognition_pkg)/config/darknet_3d.yaml" />
加载 darknet_3d 的参数。设置以下内容:
- point_cloud_topic:这是您的机器人发布点云数据的 ROS 主题。这用于匹配 2D 中的 RGB 检测和 3D 中的点云数据以生成 3D 中的边界框。
- minimum_probability 和 mininum_detection_thereshold:我们设置我们认为有效的检测并生成边界框。
- interested_classes:这些是您要搜索的对象。由于系统负载影响,值越低越好。这里我们设置了人和大象。
但是我们如何知道 YOLO v2 Tiny 可以检测到哪个对象?检查下面的文件:
roscd darknet_ros/config
cat yolov2-tiny.yaml
开始启动并查看输出:
# Set variables only for this course, locally you wont need it
QT_X11_NO_MITSHM=1
echo $QT_X11_NO_MITSHM
# Start yolo V3
roslaunch my_object_recognition_pkg darknet_ros_3d.launch
现在您可以打开 RViz,添加 RobotModel、PointCloud2 和 MarkerArray(用于可视化检测)。您也可以从 Perception Course Solutions Git 中加载它,位于 /perception_unit3_solutions/my_object_recognition_pkg/rviz/y
练习 3.5.1
- 创建一个名为 yolo_3d_data_extraction.py 的 Python 脚本,该脚本提取由 darknet_ros_3d.launch 生成的标记数据并仅过滤您想要的对象。在本例中为大象。
- 它必须能够存储同一类型的多个对象(尝试使用人)。
- 提取数据的主题是 /darknet_ros_3d/bounding_boxes。
- 您必须根据最大值和最小值计算边界框的中心。
请记住在 Python 脚本中使 Python 脚本可执行,以便 ROS 可以执行它:
roscd my_object_recognition_pkg
touch scripts/yolo_3d_data_extraction.py
chmod +x yolo_3d_data_extraction.py
my_object_recognition_pkg/scripts/yolo_3d_data_extraction.py
#!/usr/bin/env python
# -*- coding: utf-8 -*-import rospy
from gb_visual_detection_3d_msgs.msg import BoundingBoxes3dclass Yolo3DFilter:def __init__(self, object_name_to_search, accepted_probability=0.2):self._rate = rospy.Rate(5)self._object_name_to_search = object_name_to_searchself._accepted_probability = accepted_probabilityself.objects_dict = {}self.yolo_3d_topic = "/darknet_ros_3d/bounding_boxes"self._check_yolo_3d_ready()rospy.Subscriber(self.yolo_3d_topic, BoundingBoxes3d, self.yolo_3d_clb)rospy.loginfo('Ready to detect with Yolo!')def _check_yolo_3d_ready(self):yolo_3d_data = Nonewhile yolo_3d_data is None and not rospy.is_shutdown():try:yolo_3d_data = rospy.wait_for_message(self.yolo_3d_topic, BoundingBoxes3d, timeout=1.0)rospy.logdebug("Current "+self.yolo_3d_topic+" READY=>" + str(yolo_3d_data))except:rospy.logerr("Current "+self.yolo_3d_topic+" not ready yet, retrying.")def update_object_name_to_search(self,new_name):self._object_name_to_search = new_namedef calculate_center(self,box_data):x_center = (box_data.xmin + box_data.xmin) / 2.0y_center = (box_data.ymin + box_data.ymin) / 2.0z_center = (box_data.zmin + box_data.zmin) / 2.0return [x_center, y_center, z_center]def yolo_3d_clb(self, msg):# We clean the dictself.objects_dict = {}detect_object_index = 0detection_boxes_array = msg.bounding_boxesfor box in detection_boxes_array:object_name = box.Classdetection_probability = box.probabilityif object_name == self._object_name_to_search:if detection_probability >= self._accepted_probability:center_array = self.calculate_center(box) unique_object_name = object_name+str(detect_object_index) self.objects_dict[unique_object_name] = center_arraydetect_object_index += 1else:rospy.logdebug("Probability too low=="+str(detection_probability)+"<"+str(self._accepted_probability))else:rospy.logdebug("Object name doenst match="+str(object_name)+","+str(self._object_name_to_search))def get_objects_dict_detected(self):return self.objects_dictdef run(self):while not rospy.is_shutdown():searched_for_objects_detected = self.get_objects_dict_detected()rospy.loginfo(str(searched_for_objects_detected))self._rate.sleep()if __name__ == '__main__':rospy.init_node('searhc_for_object_node', log_level=rospy.INFO)yolo_obj = Yolo3DFilter(object_name_to_search="person")try:yolo_obj.run()except KeyboardInterrupt:rospy.loginfo('Shutting down')