跳到主要内容

双目深度算法

功能介绍

双目深度估计算法是使用地平线OpenExplorerSceneFlow 数据集上训练出来的StereoNet模型。

算法输入为双目图像数据,分别是左右视图。算法输出为左视图的深度。

此示例使用mipi双目相机作为图像数据输入源,利用BPU进行算法推理,发布包含双目图像左图和感知结果的话题消息,在PC端rviz2上渲染算法结果。

支持平台

平台运行方式示例功能
RDK X5Ubuntu 22.04 (Humble)· 启动双目相机、推理出深度结果,并在Web端显示

物料清单

  • 双目相机,目前支持多款mipi相机和usb相机
  • 没有双目相机的情况下,用户也可以采用离线数据进行回灌获取深度估计结果

使用方法

功能安装和更新

  • 在运行双目深度算法之前,需要确保tros-humble-mipi-cam功能包在2.3.6版本之上、tros-humble-hobot-stereonet 功能包在2.3.3版本之上,查询功能包版本的命令如下:
apt list | grep tros-humble-mipi-cam
apt list | grep tros-humble-hobot-stereonet

stereonet_version

  • 如果版本不符合要求,需要更新一下,在RDK系统的终端中运行如下指令,即可更新:
apt update
apt upgrade
  • 注意:在一些旧镜像版本中,可能存在tros-humble-stereonet-model功能包,需要对其进行卸载后,才能对功能包进行更新,在RDK系统的终端中运行如下指令:
# 确认系统存在tros-humble-stereonet-model功能包
apt list | grep tros-humble-hobot-stereonet-model
# 卸载
sudo apt-get remove tros-humble-stereonet-model
# 如果卸载失败,则执行强制删除命令
# sudo dpkg --remove --force-all tros-humble-stereonet-model
# 安装新的包
sudo apt install -y tros-humble-hobot-stereonet

启动双目图像发布、算法推理和图像可视化

双目深度算法支持多款相机,mipi相机和usb相机都可以支持,启动命令有一些区别,具体启动命令如下

(1) 搭配RDK X5官方双目摄像头启动

  • RDK X5官方双目摄像头如图所示:

RDK_Stereo_Cam_230ai

  • 安装方式如图所示,接线请勿接反,会导致左右图对调,双目算法运行错误:

RDK_X5_230ai

  • 确认相机连接是否正常,通过ssh连接RDK X5,执行以下命令,如果输出如图所示结果,则代表相机连接正常:
i2cdetect -r -y 4
i2cdetect -r -y 6

i2cdetect_230ai

  • 启动双目算法,通过ssh连接RDK X5,执行以下命令:
# 配置tros.b humble环境
source /opt/tros/humble/setup.bash

# 启动双目模型launch文件,其包含了算法和双目相机节点的启动
ros2 launch hobot_stereonet stereonet_model_web_visual_v2.launch.py \
need_rectify:=False mipi_image_width:=640 mipi_image_height:=352 mipi_lpwm_enable:=True \
height_min:=-10.0 height_max:=10.0 pc_max_depth:=5.0
  • 如果用户想保存深度估计结果,可以添加如下参数实现,save_image_all打开保存开关,save_freq控制保存频率,图像将保存在stereonet_images目录:
# 配置tros.b humble环境
source /opt/tros/humble/setup.bash

# 启动双目模型launch文件,其包含了算法和双目相机节点的启动
ros2 launch hobot_stereonet stereonet_model_web_visual_v2.launch.py \
need_rectify:=False mipi_image_width:=640 mipi_image_height:=352 mipi_lpwm_enable:=True \
height_min:=-10.0 height_max:=10.0 pc_max_depth:=5.0 \
save_image_all:=True save_freq:=4
  • 通过网页端查看深度图,在浏览器输入 http://ip:8000 (图中RDK X5 ip是192.168.1.100):

web_depth_visual

  • 通过rviz查看点云,需要用户具备一定的ROS2基础,将PC和RDK X5配置到同一个网段,能够相互ping通,订阅双目模型节点发布的相关话题,才可以在rviz中显示点云,注意rviz中需要做如下配置:

stereonet_rviz

(2) 本地图片离线回灌

  • 如果想利用本地图片评估算法效果,可以使用下列命令指定算法运行模式、图像数据地址以及相机内参,同时要保证图像数据经过去畸变、极线对齐。图片的格式如下图所示,第一张左目图像的命名为left000000.png,第二张左目图像的命名为left000001.png,以此类推。对应的第一张右目图像的命名为right000000.png,第二张右目图像的命名为right000001.png,以此类推。算法按序号遍历图像,直至图像全部计算完毕:

stereonet_rdk

  • 算法离线运行方式如下,通过ssh连接RDK X5,执行以下命令,离线运行的结果将会保存在stereonet_images目录中:
# 配置tros.b humble环境
source /opt/tros/humble/setup.bash

# 启动双目模型launch文件,注意相机参数的设置,需要手动输入矫正后参数
ros2 launch hobot_stereonet stereonet_model_web_visual.launch.py \
need_rectify:=False use_local_image:=True local_image_path:=离线数据目录 \
stereonet_model_file_path:=/opt/tros/humble/share/hobot_stereonet/config/x5baseplus_alldata_woIsaac.bin postprocess:=v2 \
camera_fx:=505.044342 camera_fy:=505.044342 camera_cx:=605.167053 camera_cy:=378.247009 base_line:=0.069046 \
height_min:=-10.0 height_max:=10.0 pc_max_depth:=5.0 save_image_all:=True

参数含义如下:

名称参数值说明
use_local_image默认 False是否启用图片回灌模式
local_image_path-回灌图像的地址目录
camera_fx-相机内参
camera_fy-相机内参
camera_cx-相机内参
camera_cy-相机内参
base_line-基线距离
  • 算法运行成功后,同样可以通过网页端和rviz显示实时渲染数据,参考上文

(3) 另外可以通过 component 的方式启动节点

# 配置tros.b humble环境
source /opt/tros/humble/setup.bash

# 终端1 启动双目模型launch文件
ros2 launch hobot_stereonet stereonet_model_component.launch.py \
stereo_image_topic:=/image_combine_raw stereo_combine_mode:=1 need_rectify:=True \
height_min:=0.1 height_max:=1.0 KMean:=10 stdv:=0.01 leaf_size:=0.05

# 终端2 启动mipi双目相机launch文件
ros2 launch mipi_cam mipi_cam_dual_channel.launch.py \
mipi_image_width:=1280 mipi_image_height:=640

接口说明

订阅话题

名称消息类型说明
/image_combine_rawsensor_msgs::msg::Image双目相机节点发布的左右目拼接图像话题,用于模型推理深度

发布话题

名称消息类型说明
/StereoNetNode/stereonet_pointcloud2sensor_msgs::msg::PointCloud2发布的点云深度话题
/StereoNetNode/stereonet_depthsensor_msgs::msg::Image发布的深度图像,像素值为深度,单位为毫米
/StereoNetNode/stereonet_visualsensor_msgs::msg::Image发布的比较直观的可视化渲染图像

参数

名称参数值说明
stereo_image_topic默认 /image_combine_raw订阅双目图像消息的话题名
need_rectify默认 True是否对双目数据做基线对齐和去畸变,相机内外参在config/stereo.yaml文件内指定
stereo_combine_mode默认 1左右目图像往往拼接在一张图上再发布出去,1为上下拼接,0为左右拼接,指示双目算法如何拆分图像
height_min默认 -0.2过滤掉相机垂直方向上高度小于height_min的点,单位为米
height_max默认 999.9过滤掉相机垂直方向上高度大于height_max的点,单位为米
KMean默认 10过滤稀疏离群点时每个点的临近点的数目,统计每个点与周围最近10个点的距离
stdv默认 0.01过滤稀疏离群点时判断是否为离群点的阈值,将标准差的倍数设置为0.01
leaf_size默认 0.05设置点云的单位密度,表示半径0.05米的三维球内只有一个点

算法耗时

当log等级设置为debug时,程序会打印出算法各阶段耗时情况,供用户debug算法性能瓶颈。

ros2 launch hobot_stereonet stereonet_model.launch.py \
stereo_image_topic:=/image_combine_raw stereo_combine_mode:=1 need_rectify:=True log_level:=debug

stereonet_rdk

注意事项

  1. 模型的输入尺寸为宽:1280,高640,相机发布的图像分辨率应为1280x640
  2. 如果双目相机发布图像的格式为NV12,那么双目图像的拼接方式必须为上下拼接