用户9173用户9173
用户4059用户4059
用户6137用户6137
用户9422用户9422
用户1859用户1859更新周期 | 项目名称 | 类型 | 说明 | 代码地址 | 环境镜像 | 代码修改 | 启动命令及参数说明 |
置顶🔝 | 逐际动力 - Tron1 双点足强化学习开源 | 官方(双版本) | 训练逐际动力双点足机器人 Tron1 在平地行走 在 GradMotion 平台上的运行教程逐际动力Tron1双点足 | 分支:master | Isaac GYM:preview-4 - BJX00000001 - isaac-gym-v18 | 无 | 超参路径: pointfoot-legged-gym/legged_gym/envs/pointfoot_flat/pointfoot_flat_config.py 启动指令: gm-run pointfoot-legged-gym/legged_gym/scripts/train.py --task=pointfoot_flat --headless --max_iterations=3000 --task: 任务名称,必须填写,本项目只注册了 task=pointfoot_flat --headless: 无头模式训练,必须填写,GM 暂不支持界面回传 --max_iterations: 最大训练轮次 |
| | | 训练逐际动力双点足机器人 Tron1 在崎岖地面行走 | 版本②:需配置两个 Git 仓库 | Isaac GYM:preview-4 - BJX00000001 - isaac-gym-v18 | 无 | 官方给每个用户在 GradMotion 内默认配置了这个示例工程,有草稿可以直接运行 启动指令: gm-run limx_legged_gym-main/limx_legged_gym/scripts/train.py --task=pointfoot_rough --headless --video --max_iterations=15000 |
更新时间 | 类型 | 说明 | 代码地址 | 环境镜像 | 代码修改 | 启动命令及参数说明 |
2025.8.7 | 开源论文 | 项目提出了一种名为 “傅里叶潜在动力学(FLD)” 的方法,旨在解决运动轨迹数据存在的稀疏性问题 —— 即现有运动数据在覆盖不足的区域难以支撑基于物理的运动学习进行有效插值和泛化。 FLD 是一种自监督的结构化表示与生成方法,能从周期性或准周期性运动中提取时空关系。它通过构建连续参数化的潜在空间来捕捉运动动力学规律,从而增强运动学习算法的插值能力(填补不同动作间的空白)和泛化能力(适应未学过的动作)。 基于 FLD,研究团队设计了运动学习控制器。控制器需要进行两阶段训练:第一阶段:用运动数据训练 FLD,获取能表示动作规律的“潜在空间”。第二阶段:用 PPO 算法训练控制器,使其能根据潜在空间的 “密码” 跟踪目标动作。 该控制器能在线跟踪多种运动,包括训练中未见过的目标动作。同时,控制器配备了 “安全机制”,当检测到有潜在风险的动作时,会自动切换到安全动作模式。 研究通过 MIT 人形机器人的实验验证了 FLD 的效果。 | Isaac GYM:preview-4 - BJX00000001 - isaac-gym-v18 | 无 | 1. 用运动数据训练 FLD,获取能表示动作规律的 “潜在空间” ① 下载代码包,上传到新建任务,启动命令行填写: python fld-main/scripts/fld/experiment.py 直接运行 ② 运行完成后,将 model_5000.pt , gmm.pt , statistics.pt 下载保存到项目目录/fld-main/logs/flat_mit_humanoid/fld/misc 中 ③ 运行 fld-main/scripts/fld/evaluation (可将项目上传到个人存储,用开发机运行),运行后 logs/flat_mit_humanoid/fld/misc 中生成 latent_params.pt 2. 用 PPO 算法训练控制器,根据“潜在空间”跟踪目标动作 确认项目文件夹中 logs/flat_mit_humanoid/fld/misc 目录下包含 model_5000.pt , gmm.pt , statistics.pt ,latent_params.pt 共计 4 个 pt 文件 新建训练任务,重新打包上传项目文件夹 启动命令: gm-run fld-main/scripts/train.py --task mit_humanoid --headless |
更新时间 | 类型 | 说明 | 开源地址 | 环境镜像 | 数据准备与代码修改 | 启动命令及参数说明 |
2025.7.25 | 开源论文 模仿学习 | 本项目提出了一种方法,在人形机器人上学习全身控制策略,以尽可能逼真地模仿人类动作。为了训练这种策略,研究借助图形领域的大规模人类动作捕捉数据 CMU,在强化学习框架中展开训练。 不过,由于机器人与人类在自由度和身体机能上存在巨大差异,直接利用动作捕捉数据集进行模仿学习,无法在真实的人形机器人上奏效。为此,本文提出的 “Exbody” 方法解决了这一问题:它鼓励人形机器人的上半身模仿参考动作,同时放宽对两条腿的模仿约束,仅要求腿部能稳定地遵循给定速度运动。 通过在仿真环境中训练并进行仿真到现实的迁移,该策略能控制人形机器人在现实世界中做出不同风格的行走、与人类握手,甚至和人类一起跳舞等动作。 | Isaac GYM:preview-4 - BJX00000001 - isaac-gym-v14 | 数据准备 项目的数据重定向部分需要参考 github 中的 README,在个人电脑或开发机运行,将重定向后标注好 keypoint 的数据传入个人存储中,并在代码中修改调用路径。 .npy 文件上传到/personal/retarget_npy ASE/ase/utils/motion_lib.py line 272 改为 data_root = "/personal/retarget_npy" 文件调整 expressive-humanoid/ASE/ase/poselib/data/pkl 目录中需要放入数据准备环节生成的,训练所需的 pkl 文件 删除 mujoco 文件夹 代码修改 项目中所有的 setup.py 中, install_requires 列表中 增加'tensorboard == 2.12.0' numpy 版本修改为 'numpy==1.23.5' | gm-run expressive-humanoid/legged_gym/legged_gym/scripts/train.py your_train_name --headless --no_wandb your_train_name 用于记录当次训练,在本地训练时使用,这里随便填写 为什么图表处为空白? 开源代码中没有使用 tensorboard 记录训练数据。如需在 GradMotion 中查看图表,请修改 on_policy_runner.py 脚本,使用 tensorboard 记录训练数据 |