robosuite_panda_pick_place_can

  • Descripción :

Estos conjuntos de datos se han creado con el entorno PickPlaceCan del simulador de brazo robótico robosuite . Los conjuntos de datos humanos fueron registrados por un solo operador utilizando RLDS Creator y un controlador de gamepad.

Los conjuntos de datos sintéticos se han registrado utilizando la biblioteca EnvLogger .

Los conjuntos de datos siguen el formato RLDS para representar pasos y episodios.

Los episodios constan de 400 pasos. En cada episodio, se agrega una etiqueta cuando se completa la tarea; esta etiqueta se almacena como parte de los metadatos del paso personalizado.

Tenga en cuenta que, debido a la dependencia de EnvLogger, la generación de este conjunto de datos actualmente solo se admite en entornos Linux.

@misc{ramos2021rlds,
      title={RLDS: an Ecosystem to Generate, Share and Use Datasets in Reinforcement Learning},
      author={Sabela Ramos and Sertan Girgin and Léonard Hussenot and Damien Vincent and Hanna Yakubovich and Daniel Toyama and Anita Gergely and Piotr Stanczyk and Raphael Marinier and Jeremiah Harmsen and Olivier Pietquin and Nikola Momchev},
      year={2021},
      eprint={2111.02767},
      archivePrefix={arXiv},
      primaryClass={cs.LG}
}

robosuite_panda_pick_place_can/human_dc29b40a (configuración predeterminada)

  • Descripción de la configuración : conjunto de datos generado por humanos (50 episodios).

  • Página de inicio : https://github.com/google-research/rlds

  • Tamaño de descarga : 96.67 MiB

  • Tamaño del conjunto de datos : 407.24 MiB

  • Divisiones :

Dividir Ejemplos
'train' 50
  • Estructura de características :
FeaturesDict({
    'agent_id': string,
    'episode_id': string,
    'episode_index': int32,
    'steps': Dataset({
        'action': Tensor(shape=(7,), dtype=float64),
        'discount': float64,
        'image': Image(shape=(None, None, 3), dtype=uint8),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': FeaturesDict({
            'Can_pos': Tensor(shape=(3,), dtype=float64),
            'Can_quat': Tensor(shape=(4,), dtype=float64),
            'Can_to_robot0_eef_pos': Tensor(shape=(3,), dtype=float64),
            'Can_to_robot0_eef_quat': Tensor(shape=(4,), dtype=float32),
            'object-state': Tensor(shape=(14,), dtype=float64),
            'robot0_eef_pos': Tensor(shape=(3,), dtype=float64),
            'robot0_eef_quat': Tensor(shape=(4,), dtype=float64),
            'robot0_gripper_qpos': Tensor(shape=(2,), dtype=float64),
            'robot0_gripper_qvel': Tensor(shape=(2,), dtype=float64),
            'robot0_joint_pos_cos': Tensor(shape=(7,), dtype=float64),
            'robot0_joint_pos_sin': Tensor(shape=(7,), dtype=float64),
            'robot0_joint_vel': Tensor(shape=(7,), dtype=float64),
            'robot0_proprio-state': Tensor(shape=(32,), dtype=float64),
        }),
        'reward': float64,
        'tag:placed': bool,
    }),
})
  • Documentación de funciones :
Característica Clase Forma tipo D Descripción
FuncionesDict
id_agente Tensor cadena
id_episodio Tensor cadena
índice_episodio Tensor int32
pasos Conjunto de datos
pasos/acción Tensor (7,) flotador64
pasos/descuento Tensor flotador64
pasos/imagen Imagen (Ninguno, Ninguno, 3) uint8
pasos/es_primero Tensor booleano
pasos/es_último Tensor booleano
pasos/es_terminal Tensor booleano
pasos/observación FuncionesDict
pasos/observación/Can_pos Tensor (3,) flotador64
pasos/observación/Can_quat Tensor (4,) flotador64
pasos/observación/Can_to_robot0_eef_pos Tensor (3,) flotador64
pasos/observación/Can_to_robot0_eef_quat Tensor (4,) flotador32
pasos/observación/estado-objeto Tensor (14,) flotador64
pasos/observación/robot0_eef_pos Tensor (3,) flotador64
pasos/observación/robot0_eef_quat Tensor (4,) flotador64
pasos/observación/robot0_gripper_qpos Tensor (2,) flotador64
pasos/observación/robot0_gripper_qvel Tensor (2,) flotador64
pasos/observación/robot0_joint_pos_cos Tensor (7,) flotador64
pasos/observación/robot0_joint_pos_sin Tensor (7,) flotador64
pasos/observación/robot0_joint_vel Tensor (7,) flotador64
pasos/observación/robot0_proprio-state Tensor (32,) flotador64
pasos/recompensa Tensor flotador64
pasos/etiqueta: colocado Tensor booleano

robosuite_panda_pick_place_can/human_images_dc29b40a

  • Descripción de la configuración : conjunto de datos generado por humanos, que incluye imágenes con diferentes ángulos de cámara en la observación. Tenga en cuenta que puede tardar algún tiempo en generarse.

  • Página de inicio : https://www.tensorflow.org/datasets/catalog/robosuite_panda_pick_place_can

  • Tamaño de descarga : 10.95 GiB

  • Tamaño del conjunto de datos : 7.53 GiB

  • Divisiones :

Dividir Ejemplos
'train' 50
  • Estructura de características :
FeaturesDict({
    'agent_id': string,
    'episode_id': string,
    'episode_index': int32,
    'steps': Dataset({
        'action': Tensor(shape=(7,), dtype=float64),
        'discount': float64,
        'image': Image(shape=(None, None, 3), dtype=uint8),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': FeaturesDict({
            'Can_pos': Tensor(shape=(3,), dtype=float64),
            'Can_quat': Tensor(shape=(4,), dtype=float64),
            'Can_to_robot0_eef_pos': Tensor(shape=(3,), dtype=float64),
            'Can_to_robot0_eef_quat': Tensor(shape=(4,), dtype=float32),
            'agentview_image': Image(shape=(256, 256, 3), dtype=uint8),
            'birdview_image': Image(shape=(256, 256, 3), dtype=uint8),
            'object-state': Tensor(shape=(14,), dtype=float64),
            'robot0_eef_pos': Tensor(shape=(3,), dtype=float64),
            'robot0_eef_quat': Tensor(shape=(4,), dtype=float64),
            'robot0_eye_in_hand_image': Image(shape=(256, 256, 3), dtype=uint8),
            'robot0_gripper_qpos': Tensor(shape=(2,), dtype=float64),
            'robot0_gripper_qvel': Tensor(shape=(2,), dtype=float64),
            'robot0_joint_pos_cos': Tensor(shape=(7,), dtype=float64),
            'robot0_joint_pos_sin': Tensor(shape=(7,), dtype=float64),
            'robot0_joint_vel': Tensor(shape=(7,), dtype=float64),
            'robot0_proprio-state': Tensor(shape=(32,), dtype=float64),
            'robot0_robotview_image': Image(shape=(256, 256, 3), dtype=uint8),
        }),
        'reward': float64,
        'tag:placed': bool,
    }),
})
  • Documentación de funciones :
Característica Clase Forma tipo D Descripción
FuncionesDict
id_agente Tensor cadena
id_episodio Tensor cadena
índice_episodio Tensor int32
pasos Conjunto de datos
pasos/acción Tensor (7,) flotador64
pasos/descuento Tensor flotador64
pasos/imagen Imagen (Ninguno, Ninguno, 3) uint8
pasos/es_primero Tensor booleano
pasos/es_último Tensor booleano
pasos/es_terminal Tensor booleano
pasos/observación FuncionesDict
pasos/observación/Can_pos Tensor (3,) flotador64
pasos/observación/Can_quat Tensor (4,) flotador64
pasos/observación/Can_to_robot0_eef_pos Tensor (3,) flotador64
pasos/observación/Can_to_robot0_eef_quat Tensor (4,) flotador32
pasos/observación/agentview_image Imagen (256, 256, 3) uint8
pasos/observación/birdview_image Imagen (256, 256, 3) uint8
pasos/observación/estado-objeto Tensor (14,) flotador64
pasos/observación/robot0_eef_pos Tensor (3,) flotador64
pasos/observación/robot0_eef_quat Tensor (4,) flotador64
pasos/observación/robot0_eye_in_hand_image Imagen (256, 256, 3) uint8
pasos/observación/robot0_gripper_qpos Tensor (2,) flotador64
pasos/observación/robot0_gripper_qvel Tensor (2,) flotador64
pasos/observación/robot0_joint_pos_cos Tensor (7,) flotador64
pasos/observación/robot0_joint_pos_sin Tensor (7,) flotador64
pasos/observación/robot0_joint_vel Tensor (7,) flotador64
pasos/observación/robot0_proprio-state Tensor (32,) flotador64
pasos/observación/robot0_robotview_image Imagen (256, 256, 3) uint8
pasos/recompensa Tensor flotador64
pasos/etiqueta: colocado Tensor booleano

robosuite_panda_pick_place_can/synthetic_stochastic_sac_afe13968

  • Descripción de la configuración : conjunto de datos sintéticos generados por un agente estocástico entrenado con SAC (200 episodios).

  • Página de inicio : https://github.com/google-research/rlds

  • Tamaño de descarga : 144.44 MiB

  • Tamaño del conjunto de datos : 622.86 MiB

  • Divisiones :

Dividir Ejemplos
'train' 200
  • Estructura de características :
FeaturesDict({
    'agent_id': string,
    'episode_id': string,
    'episode_index': int32,
    'steps': Dataset({
        'action': Tensor(shape=(7,), dtype=float32),
        'discount': float64,
        'image': Image(shape=(None, None, 3), dtype=uint8),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': FeaturesDict({
            'Can_pos': Tensor(shape=(3,), dtype=float32),
            'Can_quat': Tensor(shape=(4,), dtype=float32),
            'Can_to_robot0_eef_pos': Tensor(shape=(3,), dtype=float32),
            'Can_to_robot0_eef_quat': Tensor(shape=(4,), dtype=float32),
            'object-state': Tensor(shape=(14,), dtype=float32),
            'robot0_eef_pos': Tensor(shape=(3,), dtype=float32),
            'robot0_eef_quat': Tensor(shape=(4,), dtype=float32),
            'robot0_gripper_qpos': Tensor(shape=(2,), dtype=float32),
            'robot0_gripper_qvel': Tensor(shape=(2,), dtype=float32),
            'robot0_joint_pos_cos': Tensor(shape=(7,), dtype=float32),
            'robot0_joint_pos_sin': Tensor(shape=(7,), dtype=float32),
            'robot0_joint_vel': Tensor(shape=(7,), dtype=float32),
            'robot0_proprio-state': Tensor(shape=(32,), dtype=float32),
        }),
        'reward': float64,
        'tag:placed': bool,
    }),
})
  • Documentación de funciones :
Característica Clase Forma tipo D Descripción
FuncionesDict
id_agente Tensor cadena
id_episodio Tensor cadena
índice_episodio Tensor int32
pasos Conjunto de datos
pasos/acción Tensor (7,) flotador32
pasos/descuento Tensor flotador64
pasos/imagen Imagen (Ninguno, Ninguno, 3) uint8
pasos/es_primero Tensor booleano
pasos/es_último Tensor booleano
pasos/es_terminal Tensor booleano
pasos/observación FuncionesDict
pasos/observación/Can_pos Tensor (3,) flotador32
pasos/observación/Can_quat Tensor (4,) flotador32
pasos/observación/Can_to_robot0_eef_pos Tensor (3,) flotador32
pasos/observación/Can_to_robot0_eef_quat Tensor (4,) flotador32
pasos/observación/estado-objeto Tensor (14,) flotador32
pasos/observación/robot0_eef_pos Tensor (3,) flotador32
pasos/observación/robot0_eef_quat Tensor (4,) flotador32
pasos/observación/robot0_gripper_qpos Tensor (2,) flotador32
pasos/observación/robot0_gripper_qvel Tensor (2,) flotador32
pasos/observación/robot0_joint_pos_cos Tensor (7,) flotador32
pasos/observación/robot0_joint_pos_sin Tensor (7,) flotador32
pasos/observación/robot0_joint_vel Tensor (7,) flotador32
pasos/observación/robot0_proprio-state Tensor (32,) flotador32
pasos/recompensa Tensor flotador64
pasos/etiqueta: colocado Tensor booleano