chengyangkj / Ros_Qt5_Gui_App

ROS human computer interface based on Qt5(基于Qt5的ROS人机交互界面)

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

🌟 心愿/需求单

chengyangkj opened this issue · comments

大家如果有什么有意思的界面/功能需求,可以提在此处。也欢迎大家一起发起Merge Request 一起参与项目建设

可不可以增加通行区域的概念,有时候地图不能完全反映安全区域,可否在机器人可能行驶的路径上手动设定通行区域,限制机器人避障的路径

可不可以增加通行区域的概念,有时候地图不能完全反映安全区域,可否在机器人可能行驶的路径上手动设定通行区域,限制机器人避障的路径

这个想法也是本人规划在24年要实现的,这个需求还比较复杂,需要做长期规划
目前软件为向外发布导航目标topic,ros movebase做导航控制,因此仅仅在界面上划区域也没用,需要有规控与导航模块做响应,控制可达区域。按理说gui软件只需要发送控制指令,但是本项目计划做一个通用,功能丰富的gui软件,因此计划采用插件机制,移植ros的导航以及添加规控模块做控制。此需求拆分如下:

1,软件设置不同区域及发布区域topic
2,插件机制
3,移植ros navigation导航到软件中
4,增加规控模块

蒋老师您好!我在想是否有可能实现这样的功能:让相机回传的图像也具有交互功能,操作员通过在相机回传的图像中框选区域,将框选的区域认为成障碍,并将其反映在地图中。
考虑的是这样一个场景:假如遇到的是透明障碍物,像是玻璃,或者是凹陷的区块,导致激光雷达没有办法对其进行准确建图。这种时候操作员在可以二维的彩色图像中人为的框选不可通行区域,认为其为障碍,并将其反映在地图中。因为人如果直接在二维地图上进行标注,缺乏深度信息,标注的准确性难以保证。而在彩色图像上标注的话,结合深度图像,标注的准确性可以保证。
这可能就是涉及到如何捕获用户在图像中框选区域的坐标,以及如何将图像的二维信息和地图对应起来了。
这只是我个人的粗浅的看法,只是想请老师看看这种想法是可行的吗?希望能得到老师你的意见,谢谢!

蒋老师您好!我在想是否有可能实现这样的功能:让相机回传的图像也具有交互功能,操作员通过在相机回传的图像中框选区域,将框选的区域认为成障碍,并将其反映在地图中。 考虑的是这样一个场景:假如遇到的是透明障碍物,像是玻璃,或者是凹陷的区块,导致激光雷达没有办法对其进行准确建图。这种时候操作员在可以二维的彩色图像中人为的框选不可通行区域,认为其为障碍,并将其反映在地图中。因为人如果直接在二维地图上进行标注,缺乏深度信息,标注的准确性难以保证。而在彩色图像上标注的话,结合深度图像,标注的准确性可以保证。 这可能就是涉及到如何捕获用户在图像中框选区域的坐标,以及如何将图像的二维信息和地图对应起来了。 这只是我个人的粗浅的看法,只是想请老师看看这种想法是可行的吗?希望能得到老师你的意见,谢谢!

个人感觉这样做意义不大,“像是玻璃,或者是凹陷的区块”,首先使用彩色图像进行标注时,如何获取到你标注到的障碍物的深度信息?(没有深度信息就获取不到你标注的障碍物在真实世界中的位置,从而转换不到地图上)这个只依靠彩图肯定是获取不到。想要获取深度信息,可以借助深度相机,使用深度图结合彩图进行标注,那么首先,玻璃这种东西,激光扫描不到,深度相机一般也都扫描不到,凹陷的区块,完全可以将深度相机的3维点云转换为2维激光点,再用作建图,为什么还要手动去标注,完全可以做到自动。常规做法应该是,如果有些特殊物体,如玻璃,建图时使用地图编辑功能结合激光点手动绘制障碍物区域。在跑导航时,使用深度相机做避障

commented

是否考虑pyqt实现版本,因为py版本可能受众更广?(从共同开发的角度看)