- Description :
Insertion de chevilles Kuka iiwa avec retour de force
Page d'accueil : https://sites.google.com/view/visionandtouch
Code source :
tfds.robotics.rtx.StanfordKukaMultimodalDatasetConvertedExternallyToRlds
Versions :
-
0.1.0
(par défaut) : version initiale.
-
Taille du téléchargement :
Unknown size
Taille de l'ensemble de données :
31.98 GiB
Mise en cache automatique ( documentation ) : Non
Divisions :
Diviser | Exemples |
---|---|
'train' | 3 000 |
- Structure des fonctionnalités :
FeaturesDict({
'episode_metadata': FeaturesDict({
}),
'steps': Dataset({
'action': Tensor(shape=(4,), dtype=float32, description=Robot action, consists of [3x EEF position, 1x gripper open/close].),
'discount': Scalar(shape=(), dtype=float32, description=Discount if provided, default to 1.),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'language_embedding': Tensor(shape=(512,), dtype=float32, description=Kona language embedding. See https://tfhub.dev/google/universal-sentence-encoder-large/5),
'language_instruction': Text(shape=(), dtype=string),
'observation': FeaturesDict({
'contact': Tensor(shape=(50,), dtype=float32, description=Robot contact information.),
'depth_image': Tensor(shape=(128, 128, 1), dtype=float32, description=Main depth camera observation.),
'ee_forces_continuous': Tensor(shape=(50, 6), dtype=float32, description=Robot end-effector forces.),
'ee_orientation': Tensor(shape=(4,), dtype=float32, description=Robot end-effector orientation quaternion.),
'ee_orientation_vel': Tensor(shape=(3,), dtype=float32, description=Robot end-effector orientation velocity.),
'ee_position': Tensor(shape=(3,), dtype=float32, description=Robot end-effector position.),
'ee_vel': Tensor(shape=(3,), dtype=float32, description=Robot end-effector velocity.),
'ee_yaw': Tensor(shape=(4,), dtype=float32, description=Robot end-effector yaw.),
'ee_yaw_delta': Tensor(shape=(4,), dtype=float32, description=Robot end-effector yaw delta.),
'image': Image(shape=(128, 128, 3), dtype=uint8, description=Main camera RGB observation.),
'joint_pos': Tensor(shape=(7,), dtype=float32, description=Robot joint positions.),
'joint_vel': Tensor(shape=(7,), dtype=float32, description=Robot joint velocities.),
'optical_flow': Tensor(shape=(128, 128, 2), dtype=float32, description=Optical flow.),
'state': Tensor(shape=(8,), dtype=float32, description=Robot proprioceptive information, [7x joint pos, 1x gripper open/close].),
}),
'reward': Scalar(shape=(), dtype=float32, description=Reward if provided, 1 on final step for demos.),
}),
})
- Documentation des fonctionnalités :
Fonctionnalité | Classe | Forme | Type D | Description |
---|---|---|---|---|
FonctionnalitésDict | ||||
épisode_métadonnées | FonctionnalitésDict | |||
mesures | Ensemble de données | |||
étapes/actions | Tenseur | (4,) | flotteur32 | L'action du robot consiste en [3x positions EEF, 1x ouverture/fermeture de la pince]. |
étapes/remise | Scalaire | flotteur32 | Remise si fournie, par défaut à 1. | |
étapes/is_first | Tenseur | bouffon | ||
étapes/est_dernier | Tenseur | bouffon | ||
étapes/is_terminal | Tenseur | bouffon | ||
étapes/langue_embedding | Tenseur | (512,) | flotteur32 | Intégration du langage Kona. Voir https://tfhub.dev/google/universal-sentence-encoder-large/5 |
étapes/instruction_langue | Texte | chaîne | Enseignement des langues. | |
étapes/observation | FonctionnalitésDict | |||
démarches/observation/contact | Tenseur | (50,) | flotteur32 | Coordonnées des robots. |
étapes/observation/profondeur_image | Tenseur | (128, 128, 1) | flotteur32 | Observation par caméra de profondeur principale. |
étapes/observation/ee_forces_continuous | Tenseur | (50, 6) | flotteur32 | Forces effectrices finales du robot. |
étapes/observation/ee_orientation | Tenseur | (4,) | flotteur32 | Quaternion d'orientation de l'effecteur terminal du robot. |
étapes/observation/ee_orientation_vel | Tenseur | (3,) | flotteur32 | Vitesse d’orientation de l’effecteur final du robot. |
étapes/observation/ee_position | Tenseur | (3,) | flotteur32 | Position de l'effecteur final du robot. |
étapes/observation/ee_vel | Tenseur | (3,) | flotteur32 | Vitesse de l'effecteur final du robot. |
étapes/observation/ee_yaw | Tenseur | (4,) | flotteur32 | Lacet effecteur final du robot. |
étapes/observation/ee_yaw_delta | Tenseur | (4,) | flotteur32 | Delta de lacet de l'effecteur terminal du robot. |
étapes/observation/image | Image | (128, 128, 3) | uint8 | Observation RVB de la caméra principale. |
étapes/observation/joint_pos | Tenseur | (7,) | flotteur32 | Positions communes des robots. |
étapes/observation/joint_vel | Tenseur | (7,) | flotteur32 | Vitesses articulaires des robots. |
étapes/observation/flux_optique | Tenseur | (128, 128, 2) | flotteur32 | Flux optique. |
étapes/observation/état | Tenseur | (8,) | flotteur32 | Informations proprioceptives du robot, [7x position d'articulation, 1x pince ouverte/fermée]. |
étapes/récompense | Scalaire | flotteur32 | Récompense si fournie, 1 à la dernière étape pour les démos. |
Clés supervisées (Voir doc
as_supervised
) :None
Figure ( tfds.show_examples ) : non pris en charge.
Exemples ( tfds.as_dataframe ) : Manquant.
Citation :
@inproceedings{lee2019icra,
title={Making sense of vision and touch: Self-supervised learning of multimodal representations for contact-rich tasks},
author={Lee, Michelle A and Zhu, Yuke and Srinivasan, Krishnan and Shah, Parth and Savarese, Silvio and Fei-Fei, Li and Garg, Animesh and Bohg, Jeannette},
booktitle={2019 IEEE International Conference on Robotics and Automation (ICRA)},
year={2019},
url={https://arxiv.org/abs/1810.10191}
}