用于足式机器人定位方法测试的repo
- 列出主要特性
- 支持的算法/平台
- 可扩展性等
sudo apt install libgoogle-glog-dev
sudo apt install joint-state-publisher ros-noetic-openni-* ros-noetic-pointcloud-to-laserscan
# 克隆仓库
git clone [email protected]:Tipriest/legged_localization_benchmark.git
cd legged_localization_benchmark
git submodule update --init --recursive# for fast_lio
# install livox_sdk
cd ~/Downloads
git clone [email protected]:Tipriest/Livox-SDK.git
cd Livox-SDK
cd build && cmake ..
make
sudo make install
# go back to legged_localization_benchmark ws
catkin build./scripts/sim.launch
# 按住手柄的X键起立,Y键进入TROT模式,然后左旋杆控制移动,右旋杆控制yaw角度
# 进入其他模式的说明
# 使用手柄控制
# 使用键盘控制
# 需要改一下代码,有待完善文档
# 按下手柄的X起立,按下Y切换trot步态,左推杆控制XY移动,右推杆控制Yawlegged_localization_benchmark/
├── assets
├── Awesome-Legged-Robot-Localization-and-Mapping
├── build
├── devel
├── logs
├── README.md
├── scripts
└── src
- [FIXED]现在示例里面用的是velodyne的16线lidar,对较近的物体lidar是没有输出的,据估计这个 没有输出的范围大概在1m左右,如下图所示,看一下实际的lidar是什么情况,也是一样没有输出吗,如果 不是的话修改现在lidar的仿真模型,是的话就加入一个相机进行补盲
- 大致问了一下,距离很近的话也是会有点的,只是噪声增加的比较严重
- 有一个全局地图之后,怎么样使用localization的方法对于随机出生点可以获得自己的位置
- 对于机器人小跳向前的这种冲击情况进行考虑
- 光照突然变化
- 机器人进入电梯
- 有一个较大的IMU冲击
欢迎提交 issue 和 pull request!请先阅读 贡献指南。
本项目采用 MIT 许可证,详见 LICENSE。
如有问题或建议,请联系:[email protected]


