- Description :
Ensemble de données SIM d'un seul bras de robot effectuant des tâches de table générées de manière procédurale avec des invites multimodales, plus de 600 000 trajectoires
Page d'accueil : https://vimalabs.github.io/
Code source :
tfds.robotics.rtx.VimaConvertedExternallyToRlds
Versions :
-
0.1.0
(par défaut) : version initiale.
-
Taille du téléchargement :
Unknown size
Taille du jeu de données :
Unknown size
Mise en cache automatique ( documentation ) : Inconnu
Divisions :
Diviser | Exemples |
---|
- Structure des fonctionnalités :
FeaturesDict({
'episode_metadata': FeaturesDict({
'action_bounds': FeaturesDict({
'high': Tensor(shape=(3,), dtype=float32),
'low': Tensor(shape=(3,), dtype=float32),
}),
'end-effector type': string,
'failure': Scalar(shape=(), dtype=bool),
'file_path': string,
'n_objects': Scalar(shape=(), dtype=int64),
'num_steps': Scalar(shape=(), dtype=int64),
'robot_components_seg_ids': Sequence(Scalar(shape=(), dtype=int64)),
'seed': Scalar(shape=(), dtype=int64),
'success': Scalar(shape=(), dtype=bool),
'task': string,
}),
'steps': Dataset({
'action': FeaturesDict({
'pose0_position': Tensor(shape=(3,), dtype=float32),
'pose0_rotation': Tensor(shape=(4,), dtype=float32),
'pose1_position': Tensor(shape=(3,), dtype=float32),
'pose1_rotation': Tensor(shape=(4,), dtype=float32),
}),
'discount': Scalar(shape=(), dtype=float32),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'multimodal_instruction': string,
'multimodal_instruction_assets': FeaturesDict({
'asset_type': Sequence(string),
'frontal_image': Sequence(Tensor(shape=(128, 256, 3), dtype=uint8)),
'frontal_segmentation': Sequence(Tensor(shape=(128, 256), dtype=uint8)),
'image': Sequence(Tensor(shape=(128, 256, 3), dtype=uint8)),
'key_name': Sequence(string),
'segmentation': Sequence(Tensor(shape=(128, 256), dtype=uint8)),
'segmentation_obj_info': Sequence({
'obj_name': Sequence(string),
'segm_id': Sequence(Scalar(shape=(), dtype=int64)),
'texture_name': Sequence(string),
}),
}),
'observation': FeaturesDict({
'ee': int64,
'frontal_image': Tensor(shape=(128, 256, 3), dtype=uint8),
'frontal_segmentation': Tensor(shape=(128, 256), dtype=uint8),
'image': Tensor(shape=(128, 256, 3), dtype=uint8),
'segmentation': Tensor(shape=(128, 256), dtype=uint8),
'segmentation_obj_info': FeaturesDict({
'obj_name': Sequence(string),
'segm_id': Sequence(Scalar(shape=(), dtype=int64)),
'texture_name': Sequence(string),
}),
}),
'reward': Scalar(shape=(), dtype=float32),
}),
})
- Documentation des fonctionnalités :
Fonctionnalité | Classe | Forme | Type D | Description |
---|---|---|---|---|
FonctionnalitésDict | ||||
épisode_métadonnées | FonctionnalitésDict | |||
épisode_metadata/action_bounds | FonctionnalitésDict | |||
épisode_metadata/action_bounds/high | Tenseur | (3,) | flotteur32 | |
épisode_metadata/action_bounds/low | Tenseur | (3,) | flotteur32 | |
type d'épisode_métadonnées/effecteur final | Tenseur | chaîne | ||
épisode_métadonnées/échec | Scalaire | bouffon | ||
épisode_metadata/file_path | Tenseur | chaîne | ||
épisode_metadata/n_objects | Scalaire | int64 | ||
épisode_metadata/num_steps | Scalaire | int64 | ||
épisode_metadata/robot_components_seg_ids | Séquence (scalaire) | (Aucun,) | int64 | |
épisode_métadonnées/graine | Scalaire | int64 | ||
épisode_métadonnées/succès | Scalaire | bouffon | ||
épisode_métadonnées/tâche | Tenseur | chaîne | ||
pas | Base de données | |||
étapes/actions | FonctionnalitésDict | |||
étapes/action/pose0_position | Tenseur | (3,) | flotteur32 | |
étapes/action/pose0_rotation | Tenseur | (4,) | flotteur32 | |
étapes/action/pose1_position | Tenseur | (3,) | flotteur32 | |
étapes/action/pose1_rotation | Tenseur | (4,) | flotteur32 | |
étapes/remise | Scalaire | flotteur32 | ||
étapes/is_first | Tenseur | bouffon | ||
étapes/est_dernier | Tenseur | bouffon | ||
étapes/is_terminal | Tenseur | bouffon | ||
étapes/instruction_multimodale | Tenseur | chaîne | ||
étapes/multimodal_instruction_assets | FonctionnalitésDict | |||
étapes/multimodal_instruction_assets/asset_type | Séquence (Tenseur) | (Aucun,) | chaîne | |
étapes/multimodal_instruction_assets/frontal_image | Séquence (Tenseur) | (Aucun, 128, 256, 3) | uint8 | |
étapes/multimodal_instruction_assets/frontal_segmentation | Séquence (Tenseur) | (Aucun, 128, 256) | uint8 | |
étapes/multimodal_instruction_assets/image | Séquence (Tenseur) | (Aucun, 128, 256, 3) | uint8 | |
étapes/multimodal_instruction_assets/key_name | Séquence (Tenseur) | (Aucun,) | chaîne | |
étapes/multimodal_instruction_assets/segmentation | Séquence (Tenseur) | (Aucun, 128, 256) | uint8 | |
étapes/multimodal_instruction_assets/segmentation_obj_info | Séquence | |||
étapes/multimodal_instruction_assets/segmentation_obj_info/obj_name | Séquence (Tenseur) | (Aucun,) | chaîne | |
étapes/multimodal_instruction_assets/segmentation_obj_info/segm_id | Séquence (scalaire) | (Aucun,) | int64 | |
steps/multimodal_instruction_assets/segmentation_obj_info/texture_name | Séquence (Tenseur) | (Aucun,) | chaîne | |
étapes/observation | FonctionnalitésDict | |||
étapes/observation/ee | Tenseur | int64 | ||
étapes/observation/frontal_image | Tenseur | (128, 256, 3) | uint8 | |
étapes/observation/frontal_segmentation | Tenseur | (128, 256) | uint8 | |
étapes/observation/image | Tenseur | (128, 256, 3) | uint8 | |
étapes/observation/segmentation | Tenseur | (128, 256) | uint8 | |
étapes/observation/segmentation_obj_info | FonctionnalitésDict | |||
étapes/observation/segmentation_obj_info/obj_name | Séquence (Tenseur) | (Aucun,) | chaîne | |
étapes/observation/segmentation_obj_info/segm_id | Séquence (scalaire) | (Aucun,) | int64 | |
étapes/observation/segmentation_obj_info/texture_name | Séquence (Tenseur) | (Aucun,) | chaîne | |
étapes/récompense | Scalaire | flotteur32 |
Clés supervisées (Voir doc
as_supervised
) :None
Figure ( tfds.show_examples ) : non pris en charge.
Exemples ( tfds.as_dataframe ) : Manquant.
Citation :
@inproceedings{jiang2023vima, title = {VIMA: General Robot Manipulation with Multimodal Prompts}, author = {Yunfan Jiang and Agrim Gupta and Zichen Zhang and Guanzhi Wang and Yongqiang Dou and Yanjun Chen and Li Fei-Fei and Anima Anandkumar and Yuke Zhu and Linxi Fan}, booktitle = {Fortieth International Conference on Machine Learning}, year = {2023}. }