robosuite_panda_pick_place_can

  • Description :

Ces ensembles de données ont été créés avec l'environnement PickPlaceCan du simulateur de bras robotique robosuite . Les ensembles de données humaines ont été enregistrés par un seul opérateur à l’aide du RLDS Creator et d’un contrôleur de manette de jeu.

Les ensembles de données synthétiques ont été enregistrés à l'aide de la bibliothèque EnvLogger .

Les ensembles de données suivent le format RLDS pour représenter les étapes et les épisodes.

Les épisodes comprennent 400 étapes. Dans chaque épisode, une balise est ajoutée lorsque la tâche est terminée, cette balise est stockée dans le cadre des métadonnées de l'étape personnalisée.

Notez qu'en raison de la dépendance d'EnvLogger, la génération de cet ensemble de données est actuellement prise en charge uniquement sur les environnements Linux.

@misc{ramos2021rlds,
      title={RLDS: an Ecosystem to Generate, Share and Use Datasets in Reinforcement Learning},
      author={Sabela Ramos and Sertan Girgin and Léonard Hussenot and Damien Vincent and Hanna Yakubovich and Daniel Toyama and Anita Gergely and Piotr Stanczyk and Raphael Marinier and Jeremiah Harmsen and Olivier Pietquin and Nikola Momchev},
      year={2021},
      eprint={2111.02767},
      archivePrefix={arXiv},
      primaryClass={cs.LG}
}

robosuite_panda_pick_place_can/human_dc29b40a (configuration par défaut)

  • Description de la configuration : Ensemble de données généré par l'homme (50 épisodes).

  • Page d'accueil : https://github.com/google-research/rlds

  • Taille du téléchargement : 96.67 MiB

  • Taille de l'ensemble de données : 407.24 MiB

  • Divisions :

Diviser Exemples
'train' 50
  • Structure des fonctionnalités :
FeaturesDict({
    'agent_id': string,
    'episode_id': string,
    'episode_index': int32,
    'steps': Dataset({
        'action': Tensor(shape=(7,), dtype=float64),
        'discount': float64,
        'image': Image(shape=(None, None, 3), dtype=uint8),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': FeaturesDict({
            'Can_pos': Tensor(shape=(3,), dtype=float64),
            'Can_quat': Tensor(shape=(4,), dtype=float64),
            'Can_to_robot0_eef_pos': Tensor(shape=(3,), dtype=float64),
            'Can_to_robot0_eef_quat': Tensor(shape=(4,), dtype=float32),
            'object-state': Tensor(shape=(14,), dtype=float64),
            'robot0_eef_pos': Tensor(shape=(3,), dtype=float64),
            'robot0_eef_quat': Tensor(shape=(4,), dtype=float64),
            'robot0_gripper_qpos': Tensor(shape=(2,), dtype=float64),
            'robot0_gripper_qvel': Tensor(shape=(2,), dtype=float64),
            'robot0_joint_pos_cos': Tensor(shape=(7,), dtype=float64),
            'robot0_joint_pos_sin': Tensor(shape=(7,), dtype=float64),
            'robot0_joint_vel': Tensor(shape=(7,), dtype=float64),
            'robot0_proprio-state': Tensor(shape=(32,), dtype=float64),
        }),
        'reward': float64,
        'tag:placed': bool,
    }),
})
  • Documentation des fonctionnalités :
Fonctionnalité Classe Forme Type D Description
FonctionnalitésDict
agent_id Tenseur chaîne
épisode_id Tenseur chaîne
épisode_index Tenseur int32
pas Base de données
étapes/actions Tenseur (7,) flotteur64
étapes/remise Tenseur flotteur64
étapes/image Image (Aucun, Aucun, 3) uint8
étapes/is_first Tenseur bouffon
étapes/est_dernier Tenseur bouffon
étapes/is_terminal Tenseur bouffon
étapes/observation FonctionnalitésDict
étapes/observation/Can_pos Tenseur (3,) flotteur64
étapes/observation/Can_quat Tenseur (4,) flotteur64
étapes/observation/Can_to_robot0_eef_pos Tenseur (3,) flotteur64
étapes/observation/Can_to_robot0_eef_quat Tenseur (4,) flotteur32
étapes/observation/état-objet Tenseur (14,) flotteur64
étapes/observation/robot0_eef_pos Tenseur (3,) flotteur64
étapes/observation/robot0_eef_quat Tenseur (4,) flotteur64
étapes/observation/robot0_gripper_qpos Tenseur (2,) flotteur64
étapes/observation/robot0_gripper_qvel Tenseur (2,) flotteur64
étapes/observation/robot0_joint_pos_cos Tenseur (7,) flotteur64
étapes/observation/robot0_joint_pos_sin Tenseur (7,) flotteur64
étapes/observation/robot0_joint_vel Tenseur (7,) flotteur64
étapes/observation/robot0_proprio-state Tenseur (32,) flotteur64
étapes/récompense Tenseur flotteur64
étapes/tag:placé Tenseur bouffon

robosuite_panda_pick_place_can/human_images_dc29b40a

  • Description de la configuration : Ensemble de données généré par l'homme, comprenant des images avec différents angles de caméra dans l'observation. Notez que la génération peut prendre un certain temps.

  • Page d'accueil : https://www.tensorflow.org/datasets/catalog/robosuite_panda_pick_place_can

  • Taille du téléchargement : 10.95 GiB

  • Taille de l'ensemble de données : 7.53 GiB

  • Divisions :

Diviser Exemples
'train' 50
  • Structure des fonctionnalités :
FeaturesDict({
    'agent_id': string,
    'episode_id': string,
    'episode_index': int32,
    'steps': Dataset({
        'action': Tensor(shape=(7,), dtype=float64),
        'discount': float64,
        'image': Image(shape=(None, None, 3), dtype=uint8),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': FeaturesDict({
            'Can_pos': Tensor(shape=(3,), dtype=float64),
            'Can_quat': Tensor(shape=(4,), dtype=float64),
            'Can_to_robot0_eef_pos': Tensor(shape=(3,), dtype=float64),
            'Can_to_robot0_eef_quat': Tensor(shape=(4,), dtype=float32),
            'agentview_image': Image(shape=(256, 256, 3), dtype=uint8),
            'birdview_image': Image(shape=(256, 256, 3), dtype=uint8),
            'object-state': Tensor(shape=(14,), dtype=float64),
            'robot0_eef_pos': Tensor(shape=(3,), dtype=float64),
            'robot0_eef_quat': Tensor(shape=(4,), dtype=float64),
            'robot0_eye_in_hand_image': Image(shape=(256, 256, 3), dtype=uint8),
            'robot0_gripper_qpos': Tensor(shape=(2,), dtype=float64),
            'robot0_gripper_qvel': Tensor(shape=(2,), dtype=float64),
            'robot0_joint_pos_cos': Tensor(shape=(7,), dtype=float64),
            'robot0_joint_pos_sin': Tensor(shape=(7,), dtype=float64),
            'robot0_joint_vel': Tensor(shape=(7,), dtype=float64),
            'robot0_proprio-state': Tensor(shape=(32,), dtype=float64),
            'robot0_robotview_image': Image(shape=(256, 256, 3), dtype=uint8),
        }),
        'reward': float64,
        'tag:placed': bool,
    }),
})
  • Documentation des fonctionnalités :
Fonctionnalité Classe Forme Type D Description
FonctionnalitésDict
agent_id Tenseur chaîne
épisode_id Tenseur chaîne
épisode_index Tenseur int32
pas Base de données
étapes/actions Tenseur (7,) flotteur64
étapes/remise Tenseur flotteur64
étapes/image Image (Aucun, Aucun, 3) uint8
étapes/is_first Tenseur bouffon
étapes/est_dernier Tenseur bouffon
étapes/is_terminal Tenseur bouffon
étapes/observation FonctionnalitésDict
étapes/observation/Can_pos Tenseur (3,) flotteur64
étapes/observation/Can_quat Tenseur (4,) flotteur64
étapes/observation/Can_to_robot0_eef_pos Tenseur (3,) flotteur64
étapes/observation/Can_to_robot0_eef_quat Tenseur (4,) flotteur32
étapes/observation/agentview_image Image (256, 256, 3) uint8
étapes/observation/birdview_image Image (256, 256, 3) uint8
étapes/observation/état-objet Tenseur (14,) flotteur64
étapes/observation/robot0_eef_pos Tenseur (3,) flotteur64
étapes/observation/robot0_eef_quat Tenseur (4,) flotteur64
étapes/observation/robot0_eye_in_hand_image Image (256, 256, 3) uint8
étapes/observation/robot0_gripper_qpos Tenseur (2,) flotteur64
étapes/observation/robot0_gripper_qvel Tenseur (2,) flotteur64
étapes/observation/robot0_joint_pos_cos Tenseur (7,) flotteur64
étapes/observation/robot0_joint_pos_sin Tenseur (7,) flotteur64
étapes/observation/robot0_joint_vel Tenseur (7,) flotteur64
étapes/observation/robot0_proprio-state Tenseur (32,) flotteur64
étapes/observation/robot0_robotview_image Image (256, 256, 3) uint8
étapes/récompense Tenseur flotteur64
étapes/tag:placé Tenseur bouffon

robosuite_panda_pick_place_can/synthetic_stochastic_sac_afe13968

  • Description de la configuration : Ensemble de données synthétiques généré par un agent stochastique formé avec SAC (200 épisodes).

  • Page d'accueil : https://github.com/google-research/rlds

  • Taille du téléchargement : 144.44 MiB

  • Taille de l'ensemble de données : 622.86 MiB

  • Divisions :

Diviser Exemples
'train' 200
  • Structure des fonctionnalités :
FeaturesDict({
    'agent_id': string,
    'episode_id': string,
    'episode_index': int32,
    'steps': Dataset({
        'action': Tensor(shape=(7,), dtype=float32),
        'discount': float64,
        'image': Image(shape=(None, None, 3), dtype=uint8),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': FeaturesDict({
            'Can_pos': Tensor(shape=(3,), dtype=float32),
            'Can_quat': Tensor(shape=(4,), dtype=float32),
            'Can_to_robot0_eef_pos': Tensor(shape=(3,), dtype=float32),
            'Can_to_robot0_eef_quat': Tensor(shape=(4,), dtype=float32),
            'object-state': Tensor(shape=(14,), dtype=float32),
            'robot0_eef_pos': Tensor(shape=(3,), dtype=float32),
            'robot0_eef_quat': Tensor(shape=(4,), dtype=float32),
            'robot0_gripper_qpos': Tensor(shape=(2,), dtype=float32),
            'robot0_gripper_qvel': Tensor(shape=(2,), dtype=float32),
            'robot0_joint_pos_cos': Tensor(shape=(7,), dtype=float32),
            'robot0_joint_pos_sin': Tensor(shape=(7,), dtype=float32),
            'robot0_joint_vel': Tensor(shape=(7,), dtype=float32),
            'robot0_proprio-state': Tensor(shape=(32,), dtype=float32),
        }),
        'reward': float64,
        'tag:placed': bool,
    }),
})
  • Documentation des fonctionnalités :
Fonctionnalité Classe Forme Type D Description
FonctionnalitésDict
agent_id Tenseur chaîne
épisode_id Tenseur chaîne
épisode_index Tenseur int32
pas Base de données
étapes/actions Tenseur (7,) flotteur32
étapes/remise Tenseur flotteur64
étapes/image Image (Aucun, Aucun, 3) uint8
étapes/is_first Tenseur bouffon
étapes/est_dernier Tenseur bouffon
étapes/is_terminal Tenseur bouffon
étapes/observation FonctionnalitésDict
étapes/observation/Can_pos Tenseur (3,) flotteur32
étapes/observation/Can_quat Tenseur (4,) flotteur32
étapes/observation/Can_to_robot0_eef_pos Tenseur (3,) flotteur32
étapes/observation/Can_to_robot0_eef_quat Tenseur (4,) flotteur32
étapes/observation/état-objet Tenseur (14,) flotteur32
étapes/observation/robot0_eef_pos Tenseur (3,) flotteur32
étapes/observation/robot0_eef_quat Tenseur (4,) flotteur32
étapes/observation/robot0_gripper_qpos Tenseur (2,) flotteur32
étapes/observation/robot0_gripper_qvel Tenseur (2,) flotteur32
étapes/observation/robot0_joint_pos_cos Tenseur (7,) flotteur32
étapes/observation/robot0_joint_pos_sin Tenseur (7,) flotteur32
étapes/observation/robot0_joint_vel Tenseur (7,) flotteur32
étapes/observation/robot0_proprio-state Tenseur (32,) flotteur32
étapes/récompense Tenseur flotteur64
étapes/tag:placé Tenseur bouffon