本仓库提供了机器人强化学习算法的仿真验证与实物部署框架,适配四足机器人、轮足机器人、人形机器人。"sar"代表"simulation and real"
特性:
- 支持基于IaacGym的legged_gym,也支持基于IsaacSim的IsaacLab,用
framework
加以区分。 - 代码有python和cpp两个版本,python版本可以在
src/rl_sar/scripts
中找到
拉取代码
git clone https://github.com/fan-ziqi/rl_sar.git
本项目使用ros-noetic
(Ubuntu20.04),且需要安装以下的ros依赖包
sudo apt install ros-noetic-teleop-twist-keyboard ros-noetic-controller-interface ros-noetic-gazebo-ros-control ros-noetic-joint-state-controller ros-noetic-effort-controllers ros-noetic-joint-trajectory-controller
在任意位置下载并部署libtorch
cd /path/to/your/torchlib
wget https://download.pytorch.org/libtorch/cpu/libtorch-cxx11-abi-shared-with-deps-2.0.1%2Bcpu.zip
unzip libtorch-cxx11-abi-shared-with-deps-2.0.1+cpu.zip -d ./
echo 'export Torch_DIR=/path/to/your/torchlib' >> ~/.bashrc
安装yaml-cpp
和lcm
,若您使用Ubuntu,可以直接使用包管理器进行安装
sudo apt install liblcm-dev libyaml-cpp-dev
也可以使用源码安装,点击展开
安装yaml-cpp
git clone https://github.com/jbeder/yaml-cpp.git
cd yaml-cpp && mkdir build && cd build
cmake -DYAML_BUILD_SHARED_LIBS=on .. && make
sudo make install
sudo ldconfig
安装lcm
git clone https://github.com/lcm-proj/lcm.git
cd lcm && mkdir build && cd build
cmake .. && make
sudo make install
sudo ldconfig
在项目根目录编译
cd ..
catkin build
如果 catkin build 报错: Unable to find either executable 'empy' or Python module 'em'
, 在catkin build
之前执行 catkin config -DPYTHON_EXECUTABLE=/usr/bin/python3
下文中使用 <ROBOT>_<PLATFORM> 代替表示不同的环境,可以是 a1_isaacgym
、 a1_isaacsim
、 go2_isaacgym
、 gr1t1_isaacgym
、 gr1t2_isaacgym
运行前请将训练好的pt模型文件拷贝到rl_sar/src/rl_sar/models/<ROBOT>_<PLATFORM>
中,并配置config.yaml
中的参数。
打开一个终端,启动gazebo仿真环境
source devel/setup.bash
roslaunch rl_sar gazebo_<ROBOT>_<PLATFORM>.launch
打开一个新终端,启动控制程序
source devel/setup.bash
(for cpp version) rosrun rl_sar rl_sim
(for python version) rosrun rl_sar rl_sim.py
控制:
- 按 <Enter> 切换仿真器运行/停止。
- W 和 S 控制x轴,A 和 D 控制yaw轴,J 和 L 控制y轴,按下空格重置控制指令。
- 按 <Space> 将所有控制指令设置为零。
- 如果机器人摔倒,按 R 重置Gazebo环境。
与Unitree A1连接可以使用无线与有线两种方式
- 无线:连接机器人发出的Unitree开头的WIFI (注意:无线连接可能会出现丢包断联甚至失控,请注意安全)
- 有线:用网线连接计算机和机器人的任意网口,配置计算机ip为192.168.123.162,网关255.255.255.0
新建终端,启动控制程序
source devel/setup.bash
rosrun rl_sar rl_real_a1
按下遥控器的R2键让机器人切换到默认站起姿态,按下R1键切换到RL控制模式,任意状态按下L2切换到最初的趴下姿态。左摇杆上下控制x左右控制yaw,右摇杆左右控制y。
或者按下键盘上的0键让机器人切换到默认站起姿态,按下P键切换到RL控制模式,任意状态按下1键切换到最初的趴下姿态。WS控制x,AD控制yaw,JL控制y。
- 用网线的一端连接Go2机器人,另一端连接用户电脑,并开启电脑的 USB Ethernet 后进行配置。机器狗机载电脑的 IP 地地址为 192.168.123.161,故需将电脑 USB Ethernet 地址设置为与机器狗同一网段,如在 Address 中输入 192.168.123.222 (“222”可以改成其他)。
- 通过
ifconfig
命令查看123网段的网卡名字,如enxf8e43b808e06
,下文用 <YOUR_NETWORK_INTERFACE> 代替 - 新建终端,启动控制程序
source devel/setup.bash rosrun rl_sar rl_real_go2 <YOUR_NETWORK_INTERFACE>
- Go2支持手柄与键盘控制,方法与上面a1相同
下面拿A1举例
- 取消注释
rl_real_a1.cpp
中最上面的#define CSV_LOGGER
,你也可以在仿真程序中修改对应部分采集仿真数据用来测试训练过程。 - 运行控制程序,程序会在执行后记录所有数据。
- 停止控制程序,开始训练执行器网络。注意,下面的路径前均省略了
rl_sar/src/rl_sar/models/
。rosrun rl_sar actuator_net.py --mode train --data a1/motor.csv --output a1/motor.pt
- 验证已经训练好的训练执行器网络。
rosrun rl_sar actuator_net.py --mode play --data a1/motor.csv --output a1/motor.pt
下文中使用 <ROBOT>_<PLATFORM> 代替表示你的机器人环境
- 在
rl_sar/src/robots
路径下创建名为<ROBOT>_description
的模型包,将模型的urdf放到rl_sar/src/robots/<ROBOT>_description/urdf
路径下并命名为<ROBOT>.urdf
,并在rl_sar/src/robots/<ROBOT>_description/config
路径下创建命名空间为<ROBOT>_gazebo
的关节配置文件 - 将训练好的RL模型文件放到
rl_sar/src/rl_sar/models/<ROBOT>_<PLATFORM>
路径下,并在此路径中新建config.yaml文件,参考rl_sar/src/rl_sar/models/a1_isaacgym/config.yaml
文件修改其中参数 - 按需修改代码中的
forward()
函数,以适配不同的模型 - 若需要运行仿真,则参考
rl_sar/src/rl_sar/launch
路径下的launch文件自行修改 - 若需要运行实物,则参考
rl_sar/src/rl_sar/src/rl_real_a1.cpp
文件自行修改
衷心欢迎社区的贡献,以使这个框架更加成熟和对所有人有用。贡献可以是bug报告、功能请求或代码贡献。
如果您使用此代码或其部分内容,请引用以下内容:
@software{fan-ziqi2024rl_sar,
author = {fan-ziqi},
title = {{rl_sar: Simulation Verification and Physical Deployment of Robot Reinforcement Learning Algorithm.}},
url = {https://github.com/fan-ziqi/rl_sar},
year = {2024}
}