utokyo_pr2_tabletop_manipulation_converted_externally_to_rlds
Mantieni tutto organizzato con le raccolte
Salva e classifica i contenuti in base alle tue preferenze.
Manipolazione da tavolo PR2 (piegatura del tessuto, raccolta)
Diviso | Esempi |
---|
'train' | 192 |
'val' | 48 |
- Struttura delle caratteristiche :
FeaturesDict({
'episode_metadata': FeaturesDict({
'file_path': Text(shape=(), dtype=string),
}),
'steps': Dataset({
'action': Tensor(shape=(8,), dtype=float32, description=Robot action, consists of [3x end effector pos, 3x robot rpy angles, 1x gripper open/close command, 1x terminal action].),
'discount': Scalar(shape=(), dtype=float32, description=Discount if provided, default to 1.),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'language_embedding': Tensor(shape=(512,), dtype=float32, description=Kona language embedding. See https://tfhub.dev/google/universal-sentence-encoder-large/5),
'language_instruction': Text(shape=(), dtype=string),
'observation': FeaturesDict({
'image': Image(shape=(128, 128, 3), dtype=uint8, description=Main camera RGB observation.),
'state': Tensor(shape=(7,), dtype=float32, description=Robot state, consists of [3x end effector pos, 3x robot rpy angles, 1x gripper position].),
}),
'reward': Scalar(shape=(), dtype=float32, description=Reward if provided, 1 on final step for demos.),
}),
})
- Documentazione delle funzionalità :
Caratteristica | Classe | Forma | Tipo D | Descrizione |
---|
| CaratteristicheDict | | | |
metadati_episodio | CaratteristicheDict | | | |
metadati_episodio/percorso_file | Testo | | corda | Percorso del file di dati originale. |
passi | Set di dati | | | |
passi/azione | Tensore | (8,) | float32 | L'azione del robot consiste in [3 posizioni dell'effettore finale, 3 angoli di rotazione del robot, 1 comando di apertura/chiusura della pinza, 1 azione del terminale]. |
passi/sconto | Scalare | | float32 | Sconto se fornito, il valore predefinito è 1. |
passi/è_primo | Tensore | | bool | |
passi/è_ultimo | Tensore | | bool | |
passi/è_terminale | Tensore | | bool | |
passaggi/incorporamento_lingua | Tensore | (512,) | float32 | Incorporamento del linguaggio Kona. Vedi https://tfhub.dev/google/universal-sentence-encoder-large/5 |
passi/lingua_istruzioni | Testo | | corda | Insegnamento della lingua. |
passi/osservazione | CaratteristicheDict | | | |
passi/osservazione/immagine | Immagine | (128, 128, 3) | uint8 | Osservazione RGB della fotocamera principale. |
passi/osservazione/stato | Tensore | (7,) | float32 | Stato del robot, composto da [3x posizione effettore finale, 3x angoli rotazione robot, 1x posizione pinza]. |
passi/ricompensa | Scalare | | float32 | Ricompensa se fornita, 1 nel passaggio finale per le demo. |
@misc{oh2023pr2utokyodatasets,
author={Jihoon Oh and Naoaki Kanazawa and Kento Kawaharazuka},
title={X-Embodiment U-Tokyo PR2 Datasets},
year={2023},
url={https://github.com/ojh6404/rlds_dataset_builder},
}
Salvo quando diversamente specificato, i contenuti di questa pagina sono concessi in base alla licenza Creative Commons Attribution 4.0, mentre gli esempi di codice sono concessi in base alla licenza Apache 2.0. Per ulteriori dettagli, consulta le norme del sito di Google Developers. Java è un marchio registrato di Oracle e/o delle sue consociate.
Ultimo aggiornamento 2024-12-18 UTC.
[null,null,["Ultimo aggiornamento 2024-12-18 UTC."],[],[],null,["# utokyo_pr2_tabletop_manipulation_converted_externally_to_rlds\n\n\u003cbr /\u003e\n\n- **Description**:\n\nPR2 tabletop manipulation (folding cloth, picking)\n\n- **Homepage** : [--](/datasets/catalog/--)\n\n- **Source code** :\n [`tfds.robotics.rtx.UtokyoPr2TabletopManipulationConvertedExternallyToRlds`](https://github.com/tensorflow/datasets/tree/master/tensorflow_datasets/robotics/rtx/rtx.py)\n\n- **Versions**:\n\n - **`0.1.0`** (default): Initial release.\n- **Download size** : `Unknown size`\n\n- **Dataset size** : `829.37 MiB`\n\n- **Auto-cached**\n ([documentation](https://www.tensorflow.org/datasets/performances#auto-caching)):\n No\n\n- **Splits**:\n\n| Split | Examples |\n|-----------|----------|\n| `'train'` | 192 |\n| `'val'` | 48 |\n\n- **Feature structure**:\n\n FeaturesDict({\n 'episode_metadata': FeaturesDict({\n 'file_path': Text(shape=(), dtype=string),\n }),\n 'steps': Dataset({\n 'action': Tensor(shape=(8,), dtype=float32, description=Robot action, consists of [3x end effector pos, 3x robot rpy angles, 1x gripper open/close command, 1x terminal action].),\n 'discount': Scalar(shape=(), dtype=float32, description=Discount if provided, default to 1.),\n 'is_first': bool,\n 'is_last': bool,\n 'is_terminal': bool,\n 'language_embedding': Tensor(shape=(512,), dtype=float32, description=Kona language embedding. See https://tfhub.dev/google/universal-sentence-encoder-large/5),\n 'language_instruction': Text(shape=(), dtype=string),\n 'observation': FeaturesDict({\n 'image': Image(shape=(128, 128, 3), dtype=uint8, description=Main camera RGB observation.),\n 'state': Tensor(shape=(7,), dtype=float32, description=Robot state, consists of [3x end effector pos, 3x robot rpy angles, 1x gripper position].),\n }),\n 'reward': Scalar(shape=(), dtype=float32, description=Reward if provided, 1 on final step for demos.),\n }),\n })\n\n- **Feature documentation**:\n\n| Feature | Class | Shape | Dtype | Description |\n|----------------------------|--------------|---------------|---------|----------------------------------------------------------------------------------------------------------------------------|\n| | FeaturesDict | | | |\n| episode_metadata | FeaturesDict | | | |\n| episode_metadata/file_path | Text | | string | Path to the original data file. |\n| steps | Dataset | | | |\n| steps/action | Tensor | (8,) | float32 | Robot action, consists of \\[3x end effector pos, 3x robot rpy angles, 1x gripper open/close command, 1x terminal action\\]. |\n| steps/discount | Scalar | | float32 | Discount if provided, default to 1. |\n| steps/is_first | Tensor | | bool | |\n| steps/is_last | Tensor | | bool | |\n| steps/is_terminal | Tensor | | bool | |\n| steps/language_embedding | Tensor | (512,) | float32 | Kona language embedding. See \u003chttps://tfhub.dev/google/universal-sentence-encoder-large/5\u003e |\n| steps/language_instruction | Text | | string | Language Instruction. |\n| steps/observation | FeaturesDict | | | |\n| steps/observation/image | Image | (128, 128, 3) | uint8 | Main camera RGB observation. |\n| steps/observation/state | Tensor | (7,) | float32 | Robot state, consists of \\[3x end effector pos, 3x robot rpy angles, 1x gripper position\\]. |\n| steps/reward | Scalar | | float32 | Reward if provided, 1 on final step for demos. |\n\n- **Supervised keys** (See\n [`as_supervised` doc](https://www.tensorflow.org/datasets/api_docs/python/tfds/load#args)):\n `None`\n\n- **Figure**\n ([tfds.show_examples](https://www.tensorflow.org/datasets/api_docs/python/tfds/visualization/show_examples)):\n Not supported.\n\n- **Examples**\n ([tfds.as_dataframe](https://www.tensorflow.org/datasets/api_docs/python/tfds/as_dataframe)):\n\nDisplay examples... \n\n- **Citation**:\n\n @misc{oh2023pr2utokyodatasets,\n author={Jihoon Oh and Naoaki Kanazawa and Kento Kawaharazuka},\n title={X-Embodiment U-Tokyo PR2 Datasets},\n year={2023},\n url={https://github.com/ojh6404/rlds_dataset_builder},\n }"]]