robosuite_panda_pick_place_can

  • Descripción :

Estos conjuntos de datos se han creado con el entorno PickPlaceCan del simulador de brazo robótico robosuite . Los conjuntos de datos humanos fueron registrados por un solo operador utilizando RLDS Creator y un controlador de gamepad.

Los conjuntos de datos sintéticos se registraron utilizando la biblioteca EnvLogger .

Los conjuntos de datos siguen el formato RLDS para representar pasos y episodios.

Los episodios constan de 400 pasos. En cada episodio, se agrega una etiqueta cuando se completa la tarea, esta etiqueta se almacena como parte de los metadatos del paso personalizado.

Tenga en cuenta que, debido a la dependencia de EnvLogger, la generación de este conjunto de datos actualmente solo se admite en entornos Linux.

@misc{ramos2021rlds,
      title={RLDS: an Ecosystem to Generate, Share and Use Datasets in Reinforcement Learning},
      author={Sabela Ramos and Sertan Girgin and Léonard Hussenot and Damien Vincent and Hanna Yakubovich and Daniel Toyama and Anita Gergely and Piotr Stanczyk and Raphael Marinier and Jeremiah Harmsen and Olivier Pietquin and Nikola Momchev},
      year={2021},
      eprint={2111.02767},
      archivePrefix={arXiv},
      primaryClass={cs.LG}
}

robosuite_panda_pick_place_can/human_dc29b40a (configuración predeterminada)

  • Descripción de la configuración : conjunto de datos generados por humanos (50 episodios).

  • Página de inicio: https://github.com/google-research/rlds

  • Tamaño de la descarga : 96.67 MiB

  • Tamaño del conjunto de datos : 407.24 MiB

  • Divisiones :

Separar Ejemplos
'train' 50
  • Estructura de características :
FeaturesDict({
    'agent_id': string,
    'episode_id': string,
    'episode_index': int32,
    'steps': Dataset({
        'action': Tensor(shape=(7,), dtype=float64),
        'discount': float64,
        'image': Image(shape=(None, None, 3), dtype=uint8),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': FeaturesDict({
            'Can_pos': Tensor(shape=(3,), dtype=float64),
            'Can_quat': Tensor(shape=(4,), dtype=float64),
            'Can_to_robot0_eef_pos': Tensor(shape=(3,), dtype=float64),
            'Can_to_robot0_eef_quat': Tensor(shape=(4,), dtype=float32),
            'object-state': Tensor(shape=(14,), dtype=float64),
            'robot0_eef_pos': Tensor(shape=(3,), dtype=float64),
            'robot0_eef_quat': Tensor(shape=(4,), dtype=float64),
            'robot0_gripper_qpos': Tensor(shape=(2,), dtype=float64),
            'robot0_gripper_qvel': Tensor(shape=(2,), dtype=float64),
            'robot0_joint_pos_cos': Tensor(shape=(7,), dtype=float64),
            'robot0_joint_pos_sin': Tensor(shape=(7,), dtype=float64),
            'robot0_joint_vel': Tensor(shape=(7,), dtype=float64),
            'robot0_proprio-state': Tensor(shape=(32,), dtype=float64),
        }),
        'reward': float64,
        'tag:placed': bool,
    }),
})
  • Documentación de características :
Rasgo Clase Forma Tipo D Descripción
CaracterísticasDict
id_agente Tensor cuerda
episodio_id Tensor cuerda
índice_episodio Tensor int32
pasos conjunto de datos
pasos/acción Tensor (7,) flotar64
pasos/descuento Tensor flotar64
pasos/imagen Imagen (Ninguno, Ninguno, 3) uint8
pasos/es_primero Tensor bool
pasos/es_último Tensor bool
pasos/es_terminal Tensor bool
pasos/observación CaracterísticasDict
pasos/observación/Can_pos Tensor (3,) flotar64
pasos/observación/Can_quat Tensor (4,) flotar64
pasos/observación/Can_to_robot0_eef_pos Tensor (3,) flotar64
pasos/observación/Can_to_robot0_eef_quat Tensor (4,) flotar32
pasos/observación/objeto-estado Tensor (14,) flotar64
pasos/observación/robot0_eef_pos Tensor (3,) flotar64
pasos/observación/robot0_eef_quat Tensor (4,) flotar64
pasos/observación/robot0_gripper_qpos Tensor (2,) flotar64
pasos/observación/robot0_gripper_qvel Tensor (2,) flotar64
pasos/observación/robot0_joint_pos_cos Tensor (7,) flotar64
pasos/observación/robot0_joint_pos_sin Tensor (7,) flotar64
pasos/observación/robot0_joint_vel Tensor (7,) flotar64
pasos/observación/robot0_propio-estado Tensor (32,) flotar64
pasos/recompensa Tensor flotar64
pasos/etiqueta: colocado Tensor bool

robosuite_panda_pick_place_can/human_images_dc29b40a

  • Descripción de la configuración : conjunto de datos generados por humanos, incluidas imágenes con diferentes ángulos de cámara en la observación. Tenga en cuenta que puede tomar algún tiempo para generar.

  • Página de inicio: https://www.tensorflow.org/datasets/catalog/robosuite_panda_pick_place_can

  • Tamaño de descarga : 10.95 GiB

  • Tamaño del conjunto de datos : 7.53 GiB

  • Divisiones :

Separar Ejemplos
'train' 50
  • Estructura de características :
FeaturesDict({
    'agent_id': string,
    'episode_id': string,
    'episode_index': int32,
    'steps': Dataset({
        'action': Tensor(shape=(7,), dtype=float64),
        'discount': float64,
        'image': Image(shape=(None, None, 3), dtype=uint8),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': FeaturesDict({
            'Can_pos': Tensor(shape=(3,), dtype=float64),
            'Can_quat': Tensor(shape=(4,), dtype=float64),
            'Can_to_robot0_eef_pos': Tensor(shape=(3,), dtype=float64),
            'Can_to_robot0_eef_quat': Tensor(shape=(4,), dtype=float32),
            'agentview_image': Image(shape=(256, 256, 3), dtype=uint8),
            'birdview_image': Image(shape=(256, 256, 3), dtype=uint8),
            'object-state': Tensor(shape=(14,), dtype=float64),
            'robot0_eef_pos': Tensor(shape=(3,), dtype=float64),
            'robot0_eef_quat': Tensor(shape=(4,), dtype=float64),
            'robot0_eye_in_hand_image': Image(shape=(256, 256, 3), dtype=uint8),
            'robot0_gripper_qpos': Tensor(shape=(2,), dtype=float64),
            'robot0_gripper_qvel': Tensor(shape=(2,), dtype=float64),
            'robot0_joint_pos_cos': Tensor(shape=(7,), dtype=float64),
            'robot0_joint_pos_sin': Tensor(shape=(7,), dtype=float64),
            'robot0_joint_vel': Tensor(shape=(7,), dtype=float64),
            'robot0_proprio-state': Tensor(shape=(32,), dtype=float64),
            'robot0_robotview_image': Image(shape=(256, 256, 3), dtype=uint8),
        }),
        'reward': float64,
        'tag:placed': bool,
    }),
})
  • Documentación de características :
Rasgo Clase Forma Tipo D Descripción
CaracterísticasDict
id_agente Tensor cuerda
episodio_id Tensor cuerda
índice_episodio Tensor int32
pasos conjunto de datos
pasos/acción Tensor (7,) flotar64
pasos/descuento Tensor flotar64
pasos/imagen Imagen (Ninguno, Ninguno, 3) uint8
pasos/es_primero Tensor bool
pasos/es_último Tensor bool
pasos/es_terminal Tensor bool
pasos/observación CaracterísticasDict
pasos/observación/Can_pos Tensor (3,) flotar64
pasos/observación/Can_quat Tensor (4,) flotar64
pasos/observación/Can_to_robot0_eef_pos Tensor (3,) flotar64
pasos/observación/Can_to_robot0_eef_quat Tensor (4,) flotar32
pasos/observación/agentview_image Imagen (256, 256, 3) uint8
pasos/observación/birdview_image Imagen (256, 256, 3) uint8
pasos/observación/objeto-estado Tensor (14,) flotar64
pasos/observación/robot0_eef_pos Tensor (3,) flotar64
pasos/observación/robot0_eef_quat Tensor (4,) flotar64
pasos/observación/robot0_ojo_en_mano_imagen Imagen (256, 256, 3) uint8
pasos/observación/robot0_gripper_qpos Tensor (2,) flotar64
pasos/observación/robot0_gripper_qvel Tensor (2,) flotar64
pasos/observación/robot0_joint_pos_cos Tensor (7,) flotar64
pasos/observación/robot0_joint_pos_sin Tensor (7,) flotar64
pasos/observación/robot0_joint_vel Tensor (7,) flotar64
pasos/observación/robot0_propio-estado Tensor (32,) flotar64
pasos/observación/robot0_robotview_image Imagen (256, 256, 3) uint8
pasos/recompensa Tensor flotar64
pasos/etiqueta: colocado Tensor bool

robosuite_panda_pick_place_can/synthetic_stochastic_sac_afe13968

  • Descripción de la configuración : conjunto de datos sintéticos generados por un agente estocástico entrenado con SAC (200 episodios).

  • Página de inicio: https://github.com/google-research/rlds

  • Tamaño de la descarga : 144.44 MiB

  • Tamaño del conjunto de datos : 622.86 MiB

  • Divisiones :

Separar Ejemplos
'train' 200
  • Estructura de características :
FeaturesDict({
    'agent_id': string,
    'episode_id': string,
    'episode_index': int32,
    'steps': Dataset({
        'action': Tensor(shape=(7,), dtype=float32),
        'discount': float64,
        'image': Image(shape=(None, None, 3), dtype=uint8),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': FeaturesDict({
            'Can_pos': Tensor(shape=(3,), dtype=float32),
            'Can_quat': Tensor(shape=(4,), dtype=float32),
            'Can_to_robot0_eef_pos': Tensor(shape=(3,), dtype=float32),
            'Can_to_robot0_eef_quat': Tensor(shape=(4,), dtype=float32),
            'object-state': Tensor(shape=(14,), dtype=float32),
            'robot0_eef_pos': Tensor(shape=(3,), dtype=float32),
            'robot0_eef_quat': Tensor(shape=(4,), dtype=float32),
            'robot0_gripper_qpos': Tensor(shape=(2,), dtype=float32),
            'robot0_gripper_qvel': Tensor(shape=(2,), dtype=float32),
            'robot0_joint_pos_cos': Tensor(shape=(7,), dtype=float32),
            'robot0_joint_pos_sin': Tensor(shape=(7,), dtype=float32),
            'robot0_joint_vel': Tensor(shape=(7,), dtype=float32),
            'robot0_proprio-state': Tensor(shape=(32,), dtype=float32),
        }),
        'reward': float64,
        'tag:placed': bool,
    }),
})
  • Documentación de características :
Rasgo Clase Forma Tipo D Descripción
CaracterísticasDict
id_agente Tensor cuerda
episodio_id Tensor cuerda
índice_episodio Tensor int32
pasos conjunto de datos
pasos/acción Tensor (7,) flotar32
pasos/descuento Tensor flotar64
pasos/imagen Imagen (Ninguno, Ninguno, 3) uint8
pasos/es_primero Tensor bool
pasos/es_último Tensor bool
pasos/es_terminal Tensor bool
pasos/observación CaracterísticasDict
pasos/observación/Can_pos Tensor (3,) flotar32
pasos/observación/Can_quat Tensor (4,) flotar32
pasos/observación/Can_to_robot0_eef_pos Tensor (3,) flotar32
pasos/observación/Can_to_robot0_eef_quat Tensor (4,) flotar32
pasos/observación/objeto-estado Tensor (14,) flotar32
pasos/observación/robot0_eef_pos Tensor (3,) flotar32
pasos/observación/robot0_eef_quat Tensor (4,) flotar32
pasos/observación/robot0_gripper_qpos Tensor (2,) flotar32
pasos/observación/robot0_gripper_qvel Tensor (2,) flotar32
pasos/observación/robot0_joint_pos_cos Tensor (7,) flotar32
pasos/observación/robot0_joint_pos_sin Tensor (7,) flotar32
pasos/observación/robot0_joint_vel Tensor (7,) flotar32
pasos/observación/robot0_propio-estado Tensor (32,) flotar32
pasos/recompensa Tensor flotar64
pasos/etiqueta: colocado Tensor bool