949
社区成员
发帖
与我相关
我的任务
分享
首先感谢各位老师的开源工作。
我的环境:
turtlebot小车,velodyne16线激光雷达,Kinect深度相机,IMU。
使用LIO-SAM作为状态估计器,已经成功部署并运行了您们的算法。因为目前只有激光雷达的避障方案存在盲区,所以想试试能否将深度相机也加入进来辅助避障。
在ground_based_autonomy_basic 仓库中有提到可以使用额外的传感器进行避障:
Adding additional sensors: The system can take data from additional sensors for collision avoidance. The data can be sent in as 'sensor_msgs::PointCloud2' typed messages on ROS topic '/added_obstacles'. The points in the messages are in the 'map' frame.
但是需要将点云转换至map坐标系下,无法直接使用。
想咨询下各位老师,要如何使用深度相机的点云数据?如何将深度相机的点云转换到'map' frame?