robosuite_panda_pick_place_can

  • Deskripsi :

Kumpulan data ini telah dibuat dengan lingkungan PickPlaceCan dari simulator lengan robot robosuite . Kumpulan data manusia direkam oleh satu operator menggunakan RLDS Creator dan pengontrol gamepad.

Kumpulan data sintetik telah direkam menggunakan pustaka EnvLogger .

Kumpulan data mengikuti format RLDS untuk mewakili langkah dan episode.

Episode terdiri dari 400 langkah. Di setiap episode, tag ditambahkan saat tugas selesai, tag ini disimpan sebagai bagian dari metadata langkah khusus.

Perhatikan bahwa, karena ketergantungan EnvLogger, pembuatan kumpulan data ini saat ini hanya didukung di lingkungan Linux.

@misc{ramos2021rlds,
      title={RLDS: an Ecosystem to Generate, Share and Use Datasets in Reinforcement Learning},
      author={Sabela Ramos and Sertan Girgin and Léonard Hussenot and Damien Vincent and Hanna Yakubovich and Daniel Toyama and Anita Gergely and Piotr Stanczyk and Raphael Marinier and Jeremiah Harmsen and Olivier Pietquin and Nikola Momchev},
      year={2021},
      eprint={2111.02767},
      archivePrefix={arXiv},
      primaryClass={cs.LG}
}

robosuite_panda_pick_place_can/human_dc29b40a (konfigurasi default)

Membelah Contoh
'train' 50
  • Struktur fitur :
FeaturesDict({
    'agent_id': string,
    'episode_id': string,
    'episode_index': int32,
    'steps': Dataset({
        'action': Tensor(shape=(7,), dtype=float64),
        'discount': float64,
        'image': Image(shape=(None, None, 3), dtype=uint8),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': FeaturesDict({
            'Can_pos': Tensor(shape=(3,), dtype=float64),
            'Can_quat': Tensor(shape=(4,), dtype=float64),
            'Can_to_robot0_eef_pos': Tensor(shape=(3,), dtype=float64),
            'Can_to_robot0_eef_quat': Tensor(shape=(4,), dtype=float32),
            'object-state': Tensor(shape=(14,), dtype=float64),
            'robot0_eef_pos': Tensor(shape=(3,), dtype=float64),
            'robot0_eef_quat': Tensor(shape=(4,), dtype=float64),
            'robot0_gripper_qpos': Tensor(shape=(2,), dtype=float64),
            'robot0_gripper_qvel': Tensor(shape=(2,), dtype=float64),
            'robot0_joint_pos_cos': Tensor(shape=(7,), dtype=float64),
            'robot0_joint_pos_sin': Tensor(shape=(7,), dtype=float64),
            'robot0_joint_vel': Tensor(shape=(7,), dtype=float64),
            'robot0_proprio-state': Tensor(shape=(32,), dtype=float64),
        }),
        'reward': float64,
        'tag:placed': bool,
    }),
})
  • Dokumentasi fitur :
Fitur Kelas Membentuk Dtype Keterangan
fiturDict
agent_id Tensor rangkaian
episode_id Tensor rangkaian
indeks_episode Tensor int32
Langkah Himpunan data
langkah/tindakan Tensor (7,) float64
langkah/diskon Tensor float64
langkah/gambar Gambar (Tidak ada, Tidak ada, 3) uint8
langkah/adalah_pertama Tensor bool
langkah/is_last Tensor bool
langkah/is_terminal Tensor bool
langkah/pengamatan fiturDict
langkah/pengamatan/Can_pos Tensor (3,) float64
langkah/pengamatan/Can_quat Tensor (4,) float64
langkah/pengamatan/Can_to_robot0_eef_pos Tensor (3,) float64
langkah/pengamatan/Can_to_robot0_eef_quat Tensor (4,) float32
langkah/pengamatan/keadaan objek Tensor (14,) float64
langkah/pengamatan/robot0_eef_pos Tensor (3,) float64
langkah/pengamatan/robot0_eef_quat Tensor (4,) float64
langkah/pengamatan/robot0_gripper_qpos Tensor (2,) float64
langkah/pengamatan/robot0_gripper_qvel Tensor (2,) float64
langkah/pengamatan/robot0_joint_pos_cos Tensor (7,) float64
langkah/pengamatan/robot0_joint_pos_sin Tensor (7,) float64
langkah/pengamatan/robot0_joint_vel Tensor (7,) float64
langkah/pengamatan/robot0_proprio-state Tensor (32,) float64
langkah/hadiah Tensor float64
langkah/tag: ditempatkan Tensor bool

robosuite_panda_pick_place_can/human_images_dc29b40a

Membelah Contoh
'train' 50
  • Struktur fitur :
FeaturesDict({
    'agent_id': string,
    'episode_id': string,
    'episode_index': int32,
    'steps': Dataset({
        'action': Tensor(shape=(7,), dtype=float64),
        'discount': float64,
        'image': Image(shape=(None, None, 3), dtype=uint8),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': FeaturesDict({
            'Can_pos': Tensor(shape=(3,), dtype=float64),
            'Can_quat': Tensor(shape=(4,), dtype=float64),
            'Can_to_robot0_eef_pos': Tensor(shape=(3,), dtype=float64),
            'Can_to_robot0_eef_quat': Tensor(shape=(4,), dtype=float32),
            'agentview_image': Image(shape=(256, 256, 3), dtype=uint8),
            'birdview_image': Image(shape=(256, 256, 3), dtype=uint8),
            'object-state': Tensor(shape=(14,), dtype=float64),
            'robot0_eef_pos': Tensor(shape=(3,), dtype=float64),
            'robot0_eef_quat': Tensor(shape=(4,), dtype=float64),
            'robot0_eye_in_hand_image': Image(shape=(256, 256, 3), dtype=uint8),
            'robot0_gripper_qpos': Tensor(shape=(2,), dtype=float64),
            'robot0_gripper_qvel': Tensor(shape=(2,), dtype=float64),
            'robot0_joint_pos_cos': Tensor(shape=(7,), dtype=float64),
            'robot0_joint_pos_sin': Tensor(shape=(7,), dtype=float64),
            'robot0_joint_vel': Tensor(shape=(7,), dtype=float64),
            'robot0_proprio-state': Tensor(shape=(32,), dtype=float64),
            'robot0_robotview_image': Image(shape=(256, 256, 3), dtype=uint8),
        }),
        'reward': float64,
        'tag:placed': bool,
    }),
})
  • Dokumentasi fitur :
Fitur Kelas Membentuk Dtype Keterangan
fiturDict
agent_id Tensor rangkaian
episode_id Tensor rangkaian
indeks_episode Tensor int32
Langkah Himpunan data
langkah/tindakan Tensor (7,) float64
langkah/diskon Tensor float64
langkah/gambar Gambar (Tidak ada, Tidak ada, 3) uint8
langkah/adalah_pertama Tensor bool
langkah/is_last Tensor bool
langkah/is_terminal Tensor bool
langkah/pengamatan fiturDict
langkah/pengamatan/Can_pos Tensor (3,) float64
langkah/pengamatan/Can_quat Tensor (4,) float64
langkah/pengamatan/Can_to_robot0_eef_pos Tensor (3,) float64
langkah/pengamatan/Can_to_robot0_eef_quat Tensor (4,) float32
langkah/pengamatan/agentview_image Gambar (256, 256, 3) uint8
langkah/pengamatan/gambar_burung Gambar (256, 256, 3) uint8
langkah/pengamatan/keadaan objek Tensor (14,) float64
langkah/pengamatan/robot0_eef_pos Tensor (3,) float64
langkah/pengamatan/robot0_eef_quat Tensor (4,) float64
langkah/pengamatan/robot0_eye_in_hand_image Gambar (256, 256, 3) uint8
langkah/pengamatan/robot0_gripper_qpos Tensor (2,) float64
langkah/pengamatan/robot0_gripper_qvel Tensor (2,) float64
langkah/pengamatan/robot0_joint_pos_cos Tensor (7,) float64
langkah/pengamatan/robot0_joint_pos_sin Tensor (7,) float64
langkah/pengamatan/robot0_joint_vel Tensor (7,) float64
langkah/pengamatan/robot0_proprio-state Tensor (32,) float64
langkah/pengamatan/robot0_robotview_image Gambar (256, 256, 3) uint8
langkah/hadiah Tensor float64
langkah/tag: ditempatkan Tensor bool

robosuite_panda_pick_place_can/synthetic_stochastic_sac_afe13968

  • Deskripsi konfigurasi : Kumpulan data sintetik yang dihasilkan oleh agen stokastik yang dilatih dengan SAC (200 episode).

  • Beranda : https://github.com/google-research/rlds

  • Ukuran unduhan : 144.44 MiB

  • Ukuran dataset : 622.86 MiB

  • Perpecahan :

Membelah Contoh
'train' 200
  • Struktur fitur :
FeaturesDict({
    'agent_id': string,
    'episode_id': string,
    'episode_index': int32,
    'steps': Dataset({
        'action': Tensor(shape=(7,), dtype=float32),
        'discount': float64,
        'image': Image(shape=(None, None, 3), dtype=uint8),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': FeaturesDict({
            'Can_pos': Tensor(shape=(3,), dtype=float32),
            'Can_quat': Tensor(shape=(4,), dtype=float32),
            'Can_to_robot0_eef_pos': Tensor(shape=(3,), dtype=float32),
            'Can_to_robot0_eef_quat': Tensor(shape=(4,), dtype=float32),
            'object-state': Tensor(shape=(14,), dtype=float32),
            'robot0_eef_pos': Tensor(shape=(3,), dtype=float32),
            'robot0_eef_quat': Tensor(shape=(4,), dtype=float32),
            'robot0_gripper_qpos': Tensor(shape=(2,), dtype=float32),
            'robot0_gripper_qvel': Tensor(shape=(2,), dtype=float32),
            'robot0_joint_pos_cos': Tensor(shape=(7,), dtype=float32),
            'robot0_joint_pos_sin': Tensor(shape=(7,), dtype=float32),
            'robot0_joint_vel': Tensor(shape=(7,), dtype=float32),
            'robot0_proprio-state': Tensor(shape=(32,), dtype=float32),
        }),
        'reward': float64,
        'tag:placed': bool,
    }),
})
  • Dokumentasi fitur :
Fitur Kelas Membentuk Dtype Keterangan
fiturDict
agent_id Tensor rangkaian
episode_id Tensor rangkaian
indeks_episode Tensor int32
Langkah Himpunan data
langkah/tindakan Tensor (7,) float32
langkah/diskon Tensor float64
langkah/gambar Gambar (Tidak ada, Tidak ada, 3) uint8
langkah/adalah_pertama Tensor bool
langkah/is_last Tensor bool
langkah/is_terminal Tensor bool
langkah/pengamatan fiturDict
langkah/pengamatan/Can_pos Tensor (3,) float32
langkah/pengamatan/Can_quat Tensor (4,) float32
langkah/pengamatan/Can_to_robot0_eef_pos Tensor (3,) float32
langkah/pengamatan/Can_to_robot0_eef_quat Tensor (4,) float32
langkah/pengamatan/keadaan objek Tensor (14,) float32
langkah/pengamatan/robot0_eef_pos Tensor (3,) float32
langkah/pengamatan/robot0_eef_quat Tensor (4,) float32
langkah/pengamatan/robot0_gripper_qpos Tensor (2,) float32
langkah/pengamatan/robot0_gripper_qvel Tensor (2,) float32
langkah/pengamatan/robot0_joint_pos_cos Tensor (7,) float32
langkah/pengamatan/robot0_joint_pos_sin Tensor (7,) float32
langkah/pengamatan/robot0_joint_vel Tensor (7,) float32
langkah/pengamatan/robot0_proprio-state Tensor (32,) float32
langkah/hadiah Tensor float64
langkah/tag: ditempatkan Tensor bool