robosuite_panda_pick_place_can

  • Keterangan :

Kumpulan data ini telah dibuat dengan lingkungan PickPlaceCan dari simulator lengan robot robosuite . Kumpulan data manusia dicatat oleh satu operator menggunakan RLDS Creator dan pengontrol gamepad.

Kumpulan data sintetis telah dicatat menggunakan perpustakaan EnvLogger .

Kumpulan data mengikuti format RLDS untuk mewakili langkah dan episode.

Episode terdiri dari 400 langkah. Di setiap episode, tag ditambahkan ketika tugas selesai, tag ini disimpan sebagai bagian dari metadata langkah kustom.

Perhatikan bahwa, karena ketergantungan EnvLogger, pembuatan kumpulan data ini saat ini hanya didukung di lingkungan Linux.

@misc{ramos2021rlds,
      title={RLDS: an Ecosystem to Generate, Share and Use Datasets in Reinforcement Learning},
      author={Sabela Ramos and Sertan Girgin and Léonard Hussenot and Damien Vincent and Hanna Yakubovich and Daniel Toyama and Anita Gergely and Piotr Stanczyk and Raphael Marinier and Jeremiah Harmsen and Olivier Pietquin and Nikola Momchev},
      year={2021},
      eprint={2111.02767},
      archivePrefix={arXiv},
      primaryClass={cs.LG}
}

robosuite_panda_pick_place_can/human_dc29b40a (konfigurasi default)

  • Deskripsi konfigurasi : Kumpulan data yang dihasilkan manusia (50 episode).

  • Beranda : https://github.com/google-research/rlds

  • Ukuran unduhan : 96.67 MiB

  • Ukuran kumpulan data : 407.24 MiB

  • Perpecahan :

Membelah Contoh
'train' 50
  • Struktur fitur :
FeaturesDict({
    'agent_id': string,
    'episode_id': string,
    'episode_index': int32,
    'steps': Dataset({
        'action': Tensor(shape=(7,), dtype=float64),
        'discount': float64,
        'image': Image(shape=(None, None, 3), dtype=uint8),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': FeaturesDict({
            'Can_pos': Tensor(shape=(3,), dtype=float64),
            'Can_quat': Tensor(shape=(4,), dtype=float64),
            'Can_to_robot0_eef_pos': Tensor(shape=(3,), dtype=float64),
            'Can_to_robot0_eef_quat': Tensor(shape=(4,), dtype=float32),
            'object-state': Tensor(shape=(14,), dtype=float64),
            'robot0_eef_pos': Tensor(shape=(3,), dtype=float64),
            'robot0_eef_quat': Tensor(shape=(4,), dtype=float64),
            'robot0_gripper_qpos': Tensor(shape=(2,), dtype=float64),
            'robot0_gripper_qvel': Tensor(shape=(2,), dtype=float64),
            'robot0_joint_pos_cos': Tensor(shape=(7,), dtype=float64),
            'robot0_joint_pos_sin': Tensor(shape=(7,), dtype=float64),
            'robot0_joint_vel': Tensor(shape=(7,), dtype=float64),
            'robot0_proprio-state': Tensor(shape=(32,), dtype=float64),
        }),
        'reward': float64,
        'tag:placed': bool,
    }),
})
  • Dokumentasi fitur :
Fitur Kelas Membentuk Tipe D Keterangan
FiturDict
agen_id Tensor rangkaian
episode_id Tensor rangkaian
episode_index Tensor int32
Langkah Himpunan data
langkah/tindakan Tensor (7,) float64
langkah/diskon Tensor float64
langkah/gambar Gambar (Tidak ada, Tidak ada, 3) uint8
langkah/adalah_pertama Tensor bodoh
langkah/adalah_terakhir Tensor bodoh
langkah/is_terminal Tensor bodoh
langkah/pengamatan FiturDict
langkah/pengamatan/Can_pos Tensor (3,) float64
langkah/pengamatan/Can_quat Tensor (4,) float64
langkah/pengamatan/Can_to_robot0_eef_pos Tensor (3,) float64
langkah/pengamatan/Can_to_robot0_eef_quat Tensor (4,) float32
langkah/pengamatan/keadaan objek Tensor (14,) float64
langkah/pengamatan/robot0_eef_pos Tensor (3,) float64
langkah/pengamatan/robot0_eef_quat Tensor (4,) float64
langkah/pengamatan/robot0_gripper_qpos Tensor (2,) float64
langkah/pengamatan/robot0_gripper_qvel Tensor (2,) float64
langkah/pengamatan/robot0_joint_pos_cos Tensor (7,) float64
langkah/pengamatan/robot0_joint_pos_sin Tensor (7,) float64
langkah/pengamatan/robot0_joint_vel Tensor (7,) float64
langkah/pengamatan/robot0_proprio-state Tensor (32,) float64
langkah/hadiah Tensor float64
langkah/tag: ditempatkan Tensor bodoh

robosuite_panda_pick_place_can/human_images_dc29b40a

Membelah Contoh
'train' 50
  • Struktur fitur :
FeaturesDict({
    'agent_id': string,
    'episode_id': string,
    'episode_index': int32,
    'steps': Dataset({
        'action': Tensor(shape=(7,), dtype=float64),
        'discount': float64,
        'image': Image(shape=(None, None, 3), dtype=uint8),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': FeaturesDict({
            'Can_pos': Tensor(shape=(3,), dtype=float64),
            'Can_quat': Tensor(shape=(4,), dtype=float64),
            'Can_to_robot0_eef_pos': Tensor(shape=(3,), dtype=float64),
            'Can_to_robot0_eef_quat': Tensor(shape=(4,), dtype=float32),
            'agentview_image': Image(shape=(256, 256, 3), dtype=uint8),
            'birdview_image': Image(shape=(256, 256, 3), dtype=uint8),
            'object-state': Tensor(shape=(14,), dtype=float64),
            'robot0_eef_pos': Tensor(shape=(3,), dtype=float64),
            'robot0_eef_quat': Tensor(shape=(4,), dtype=float64),
            'robot0_eye_in_hand_image': Image(shape=(256, 256, 3), dtype=uint8),
            'robot0_gripper_qpos': Tensor(shape=(2,), dtype=float64),
            'robot0_gripper_qvel': Tensor(shape=(2,), dtype=float64),
            'robot0_joint_pos_cos': Tensor(shape=(7,), dtype=float64),
            'robot0_joint_pos_sin': Tensor(shape=(7,), dtype=float64),
            'robot0_joint_vel': Tensor(shape=(7,), dtype=float64),
            'robot0_proprio-state': Tensor(shape=(32,), dtype=float64),
            'robot0_robotview_image': Image(shape=(256, 256, 3), dtype=uint8),
        }),
        'reward': float64,
        'tag:placed': bool,
    }),
})
  • Dokumentasi fitur :
Fitur Kelas Membentuk Tipe D Keterangan
FiturDict
agen_id Tensor rangkaian
episode_id Tensor rangkaian
episode_index Tensor int32
Langkah Himpunan data
langkah/tindakan Tensor (7,) float64
langkah/diskon Tensor float64
langkah/gambar Gambar (Tidak ada, Tidak ada, 3) uint8
langkah/adalah_pertama Tensor bodoh
langkah/adalah_terakhir Tensor bodoh
langkah/is_terminal Tensor bodoh
langkah/pengamatan FiturDict
langkah/pengamatan/Can_pos Tensor (3,) float64
langkah/pengamatan/Can_quat Tensor (4,) float64
langkah/pengamatan/Can_to_robot0_eef_pos Tensor (3,) float64
langkah/pengamatan/Can_to_robot0_eef_quat Tensor (4,) float32
langkah/pengamatan/agentview_image Gambar (256, 256, 3) uint8
langkah/pengamatan/birdview_image Gambar (256, 256, 3) uint8
langkah/pengamatan/keadaan objek Tensor (14,) float64
langkah/pengamatan/robot0_eef_pos Tensor (3,) float64
langkah/pengamatan/robot0_eef_quat Tensor (4,) float64
langkah/pengamatan/robot0_eye_in_hand_image Gambar (256, 256, 3) uint8
langkah/pengamatan/robot0_gripper_qpos Tensor (2,) float64
langkah/pengamatan/robot0_gripper_qvel Tensor (2,) float64
langkah/pengamatan/robot0_joint_pos_cos Tensor (7,) float64
langkah/pengamatan/robot0_joint_pos_sin Tensor (7,) float64
langkah/pengamatan/robot0_joint_vel Tensor (7,) float64
langkah/pengamatan/robot0_proprio-state Tensor (32,) float64
langkah/pengamatan/robot0_robotview_image Gambar (256, 256, 3) uint8
langkah/hadiah Tensor float64
langkah/tag: ditempatkan Tensor bodoh

robosuite_panda_pick_place_can/synthetic_stochastic_sac_afe13968

  • Deskripsi konfigurasi : Kumpulan data sintetis yang dihasilkan oleh agen stokastik yang dilatih dengan SAC (200 episode).

  • Beranda : https://github.com/google-research/rlds

  • Ukuran unduhan : 144.44 MiB

  • Ukuran kumpulan data : 622.86 MiB

  • Perpecahan :

Membelah Contoh
'train' 200
  • Struktur fitur :
FeaturesDict({
    'agent_id': string,
    'episode_id': string,
    'episode_index': int32,
    'steps': Dataset({
        'action': Tensor(shape=(7,), dtype=float32),
        'discount': float64,
        'image': Image(shape=(None, None, 3), dtype=uint8),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': FeaturesDict({
            'Can_pos': Tensor(shape=(3,), dtype=float32),
            'Can_quat': Tensor(shape=(4,), dtype=float32),
            'Can_to_robot0_eef_pos': Tensor(shape=(3,), dtype=float32),
            'Can_to_robot0_eef_quat': Tensor(shape=(4,), dtype=float32),
            'object-state': Tensor(shape=(14,), dtype=float32),
            'robot0_eef_pos': Tensor(shape=(3,), dtype=float32),
            'robot0_eef_quat': Tensor(shape=(4,), dtype=float32),
            'robot0_gripper_qpos': Tensor(shape=(2,), dtype=float32),
            'robot0_gripper_qvel': Tensor(shape=(2,), dtype=float32),
            'robot0_joint_pos_cos': Tensor(shape=(7,), dtype=float32),
            'robot0_joint_pos_sin': Tensor(shape=(7,), dtype=float32),
            'robot0_joint_vel': Tensor(shape=(7,), dtype=float32),
            'robot0_proprio-state': Tensor(shape=(32,), dtype=float32),
        }),
        'reward': float64,
        'tag:placed': bool,
    }),
})
  • Dokumentasi fitur :
Fitur Kelas Membentuk Tipe D Keterangan
FiturDict
agen_id Tensor rangkaian
episode_id Tensor rangkaian
episode_index Tensor int32
Langkah Himpunan data
langkah/tindakan Tensor (7,) float32
langkah/diskon Tensor float64
langkah/gambar Gambar (Tidak ada, Tidak ada, 3) uint8
langkah/adalah_pertama Tensor bodoh
langkah/adalah_terakhir Tensor bodoh
langkah/is_terminal Tensor bodoh
langkah/pengamatan FiturDict
langkah/pengamatan/Can_pos Tensor (3,) float32
langkah/pengamatan/Can_quat Tensor (4,) float32
langkah/pengamatan/Can_to_robot0_eef_pos Tensor (3,) float32
langkah/pengamatan/Can_to_robot0_eef_quat Tensor (4,) float32
langkah/pengamatan/keadaan objek Tensor (14,) float32
langkah/pengamatan/robot0_eef_pos Tensor (3,) float32
langkah/pengamatan/robot0_eef_quat Tensor (4,) float32
langkah/pengamatan/robot0_gripper_qpos Tensor (2,) float32
langkah/pengamatan/robot0_gripper_qvel Tensor (2,) float32
langkah/pengamatan/robot0_joint_pos_cos Tensor (7,) float32
langkah/pengamatan/robot0_joint_pos_sin Tensor (7,) float32
langkah/pengamatan/robot0_joint_vel Tensor (7,) float32
langkah/pengamatan/robot0_proprio-state Tensor (32,) float32
langkah/hadiah Tensor float64
langkah/tag: ditempatkan Tensor bodoh