utokyo_pr2_tabletop_manipulation_converted_externally_to_rlds
Sử dụng bộ sưu tập để sắp xếp ngăn nắp các trang
Lưu và phân loại nội dung dựa trên lựa chọn ưu tiên của bạn.
Thao tác trên mặt bàn PR2 (gấp vải, nhặt đồ)
Tách ra | Ví dụ |
---|
'train' | 192 |
'val' | 48 |
FeaturesDict({
'episode_metadata': FeaturesDict({
'file_path': Text(shape=(), dtype=string),
}),
'steps': Dataset({
'action': Tensor(shape=(8,), dtype=float32, description=Robot action, consists of [3x end effector pos, 3x robot rpy angles, 1x gripper open/close command, 1x terminal action].),
'discount': Scalar(shape=(), dtype=float32, description=Discount if provided, default to 1.),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'language_embedding': Tensor(shape=(512,), dtype=float32, description=Kona language embedding. See https://tfhub.dev/google/universal-sentence-encoder-large/5),
'language_instruction': Text(shape=(), dtype=string),
'observation': FeaturesDict({
'image': Image(shape=(128, 128, 3), dtype=uint8, description=Main camera RGB observation.),
'state': Tensor(shape=(7,), dtype=float32, description=Robot state, consists of [3x end effector pos, 3x robot rpy angles, 1x gripper position].),
}),
'reward': Scalar(shape=(), dtype=float32, description=Reward if provided, 1 on final step for demos.),
}),
})
Tính năng | Lớp học | Hình dạng | loại D | Sự miêu tả |
---|
| Tính năngDict | | | |
tập_siêu dữ liệu | Tính năngDict | | | |
tập_siêu dữ liệu/file_path | Chữ | | sợi dây | Đường dẫn tới file dữ liệu gốc. |
bước | Tập dữ liệu | | | |
bước/hành động | Tenxơ | (8,) | phao32 | Hành động của robot, bao gồm [3x vị trí tác động cuối, 3x góc rpy của robot, 1x lệnh đóng/mở kẹp, 1x hành động cuối]. |
bước/giảm giá | vô hướng | | phao32 | Giảm giá nếu được cung cấp, mặc định là 1. |
bước/is_first | Tenxơ | | bool | |
bước/is_last | Tenxơ | | bool | |
bước/is_terminal | Tenxơ | | bool | |
các bước/ngôn ngữ_embedding | Tenxơ | (512,) | phao32 | Nhúng ngôn ngữ Kona. Xem https://tfhub.dev/google/universal-sentence-encoding-large/5 |
các bước/ngôn ngữ_instruction | Chữ | | sợi dây | Giảng dạy ngôn ngữ. |
bước/quan sát | Tính năngDict | | | |
bước/quan sát/hình ảnh | Hình ảnh | (128, 128, 3) | uint8 | Quan sát RGB của camera chính. |
bước/quan sát/trạng thái | Tenxơ | (7,) | phao32 | Trạng thái robot, bao gồm [3x vị trí tác động cuối, 3x góc rpy của robot, 1x vị trí kẹp]. |
bước/phần thưởng | vô hướng | | phao32 | Phần thưởng nếu được cung cấp, 1 ở bước cuối cùng cho bản demo. |
@misc{oh2023pr2utokyodatasets,
author={Jihoon Oh and Naoaki Kanazawa and Kento Kawaharazuka},
title={X-Embodiment U-Tokyo PR2 Datasets},
year={2023},
url={https://github.com/ojh6404/rlds_dataset_builder},
}
Trừ phi có lưu ý khác, nội dung của trang này được cấp phép theo Giấy phép ghi nhận tác giả 4.0 của Creative Commons và các mẫu mã lập trình được cấp phép theo Giấy phép Apache 2.0. Để biết thông tin chi tiết, vui lòng tham khảo Chính sách trang web của Google Developers. Java là nhãn hiệu đã đăng ký của Oracle và/hoặc các đơn vị liên kết với Oracle.
Cập nhật lần gần đây nhất: 2024-12-18 UTC.
[null,null,["Cập nhật lần gần đây nhất: 2024-12-18 UTC."],[],[],null,["# utokyo_pr2_tabletop_manipulation_converted_externally_to_rlds\n\n\u003cbr /\u003e\n\n- **Description**:\n\nPR2 tabletop manipulation (folding cloth, picking)\n\n- **Homepage** : [--](/datasets/catalog/--)\n\n- **Source code** :\n [`tfds.robotics.rtx.UtokyoPr2TabletopManipulationConvertedExternallyToRlds`](https://github.com/tensorflow/datasets/tree/master/tensorflow_datasets/robotics/rtx/rtx.py)\n\n- **Versions**:\n\n - **`0.1.0`** (default): Initial release.\n- **Download size** : `Unknown size`\n\n- **Dataset size** : `829.37 MiB`\n\n- **Auto-cached**\n ([documentation](https://www.tensorflow.org/datasets/performances#auto-caching)):\n No\n\n- **Splits**:\n\n| Split | Examples |\n|-----------|----------|\n| `'train'` | 192 |\n| `'val'` | 48 |\n\n- **Feature structure**:\n\n FeaturesDict({\n 'episode_metadata': FeaturesDict({\n 'file_path': Text(shape=(), dtype=string),\n }),\n 'steps': Dataset({\n 'action': Tensor(shape=(8,), dtype=float32, description=Robot action, consists of [3x end effector pos, 3x robot rpy angles, 1x gripper open/close command, 1x terminal action].),\n 'discount': Scalar(shape=(), dtype=float32, description=Discount if provided, default to 1.),\n 'is_first': bool,\n 'is_last': bool,\n 'is_terminal': bool,\n 'language_embedding': Tensor(shape=(512,), dtype=float32, description=Kona language embedding. See https://tfhub.dev/google/universal-sentence-encoder-large/5),\n 'language_instruction': Text(shape=(), dtype=string),\n 'observation': FeaturesDict({\n 'image': Image(shape=(128, 128, 3), dtype=uint8, description=Main camera RGB observation.),\n 'state': Tensor(shape=(7,), dtype=float32, description=Robot state, consists of [3x end effector pos, 3x robot rpy angles, 1x gripper position].),\n }),\n 'reward': Scalar(shape=(), dtype=float32, description=Reward if provided, 1 on final step for demos.),\n }),\n })\n\n- **Feature documentation**:\n\n| Feature | Class | Shape | Dtype | Description |\n|----------------------------|--------------|---------------|---------|----------------------------------------------------------------------------------------------------------------------------|\n| | FeaturesDict | | | |\n| episode_metadata | FeaturesDict | | | |\n| episode_metadata/file_path | Text | | string | Path to the original data file. |\n| steps | Dataset | | | |\n| steps/action | Tensor | (8,) | float32 | Robot action, consists of \\[3x end effector pos, 3x robot rpy angles, 1x gripper open/close command, 1x terminal action\\]. |\n| steps/discount | Scalar | | float32 | Discount if provided, default to 1. |\n| steps/is_first | Tensor | | bool | |\n| steps/is_last | Tensor | | bool | |\n| steps/is_terminal | Tensor | | bool | |\n| steps/language_embedding | Tensor | (512,) | float32 | Kona language embedding. See \u003chttps://tfhub.dev/google/universal-sentence-encoder-large/5\u003e |\n| steps/language_instruction | Text | | string | Language Instruction. |\n| steps/observation | FeaturesDict | | | |\n| steps/observation/image | Image | (128, 128, 3) | uint8 | Main camera RGB observation. |\n| steps/observation/state | Tensor | (7,) | float32 | Robot state, consists of \\[3x end effector pos, 3x robot rpy angles, 1x gripper position\\]. |\n| steps/reward | Scalar | | float32 | Reward if provided, 1 on final step for demos. |\n\n- **Supervised keys** (See\n [`as_supervised` doc](https://www.tensorflow.org/datasets/api_docs/python/tfds/load#args)):\n `None`\n\n- **Figure**\n ([tfds.show_examples](https://www.tensorflow.org/datasets/api_docs/python/tfds/visualization/show_examples)):\n Not supported.\n\n- **Examples**\n ([tfds.as_dataframe](https://www.tensorflow.org/datasets/api_docs/python/tfds/as_dataframe)):\n\nDisplay examples... \n\n- **Citation**:\n\n @misc{oh2023pr2utokyodatasets,\n author={Jihoon Oh and Naoaki Kanazawa and Kento Kawaharazuka},\n title={X-Embodiment U-Tokyo PR2 Datasets},\n year={2023},\n url={https://github.com/ojh6404/rlds_dataset_builder},\n }"]]