🛰️ G0 大模型(Dual-System VLA)
G0 是一个由规划器与执行器组成的双系统视觉-语言-行动(VLA)模型:
-
G0-VLM:负责高层次推理与子任务规划。
-
G0-VLA:负责实时、精确的低层动作控制。
🔭 项目资源
- 项目页:
https://opengalaxea.github.io/G0/ - 论文(arXiv):
https://arxiv.org/abs/2509.00576v1 - 数据集可视化:
https://opengalaxea.github.io/G0/visualizer/index.html - 数据集(HuggingFace):
https://huggingface.co/datasets/OpenGalaxea/Galaxea-Open-World-Dataset - 数据集(ModelScope):
https://www.modelscope.cn/datasets/Galaxea/Galaxea-Open-World-Dataset - 预训练权重(HuggingFace):
https://huggingface.co/OpenGalaxea/G0-VLA - 预训练权重(ModelScope):
https://www.modelscope.cn/models/Galaxea/G0-VLA
⏰ 发布路线图
- 2025-08-23:开放 Galaxea Open-World Dataset。
- 2025-09-09:开放 G0-VLA 预训练权重。
- 2025-09-17:开放真实机器人推理代码与微调代码。
- 2025-09:即将开放 Lerobot 格式数据集。
- 2025-年内:更多更新。
🗂️ 数据集概览
- 500+ 小时移动操作数据
- 统一机器人形态,跨住宅/厨房/零售/办公室等真实场景
- 细粒度子任务语言标注
- RLDS 数据格式(即将提供 Lerobot 版本)
更多细节见数据集文档(G0 仓库 docs/dataset.md)。
🧠 G0-VLA 使用指南
GPU 需求
- 推理:显存 > 8 GB(如 RTX 3090/4090)
- 全参数微调:显存 > 70 GB(如 A100 80GB / H20 96GB)
- 多卡可通过 torchrun 的 --nnodes/--nproc-per-node 做并行降低单卡显存
安装
git clone https://github.com/OpenGalaxea/G0
conda env create -f glx_vla.yml
conda activate g0
# Install Pacakges from Code
git clone https://github.com/kvablack/dlimp
cd dlimp
pip install -e .
预训练权重
| 模型 | 用途 | 说明 | Checkpoint |
|---|---|---|---|
| G0_3B_base | 微调基座 | G0-VLA 基础模型 | https://huggingface.co/OpenGalaxea/G0-VLA/blob/main/G0_3B_base.pt |
更多模型将陆续发布。
微调流程(以 Galaxea R1Lite 为例)
- 数据转换为 RLDS(可参考 OpenVLA 提供的转换脚本)。
- 配置训练文件:
vla/config/r1_lite/r1lite_fine_tune_example.yml。 - 启动训练:
cd G0
conda activate g0
torchrun \
--standalone \
--nnodes 1 \
--nproc-per-node <num-gpus> \
finetune.py --config <your-training-config-path>
真实机器人推理(ROS1)
请参考仓库文档 docs/inference.md 获取详细命令与启动方式。
精度设置
- 推理:BF16 或 FP32(通过启动参数
dtype指定)。 - 训练:BF16 或 FP32(配置文件设置
enable_bf16: True)。
🧩 常见问题(Troubleshooting)
- 数据集基本配置:采样频率 15 Hz;RLDS 图像分辨率 224×224。
- 即将提供 Lerobot 格式与全分辨率(1280×720)版本。
🙏 致谢
实现参考并受益于:open-pi-zero、OpenVLA、Octo、OpenPI,以及 OXE、RDT、BridgeV2、DROID 等数据集。
📜 引用
@article{galaxea2025,
title={Galaxea G0: Open-World Dataset and Dual-System VLA Model},
author={Galaxea Team},
journal={arXiv preprint arXiv:2509.00576v1},
year={2025}
}