- Описание :
Организация офисного стола, посуды и т. д.
Домашняя страница : https://robopil.github.io/d3fields/
Исходный код :
tfds.robotics.rtx.UiucD3field
Версии :
-
0.1.0
(по умолчанию): первоначальный выпуск.
-
Размер загрузки :
Unknown size
Размер набора данных :
15.82 GiB
Автокэширование ( документация ): Нет
Расколы :
Расколоть | Примеры |
---|---|
'train' | 192 |
- Структура функции :
FeaturesDict({
'episode_metadata': FeaturesDict({
'file_path': Text(shape=(), dtype=string),
}),
'steps': Dataset({
'action': Tensor(shape=(3,), dtype=float32, description=Robot displacement from last frame),
'discount': Scalar(shape=(), dtype=float32, description=Discount if provided, default to 1.),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'language_embedding': Tensor(shape=(512,), dtype=float32, description=Kona language embedding. See https://tfhub.dev/google/universal-sentence-encoder-large/5),
'language_instruction': Text(shape=(), dtype=string),
'observation': FeaturesDict({
'depth_1': Image(shape=(360, 640, 1), dtype=uint16, description=camera 1 depth observation.),
'depth_2': Image(shape=(360, 640, 1), dtype=uint16, description=camera 2 depth observation.),
'depth_3': Image(shape=(360, 640, 1), dtype=uint16, description=camera 3 depth observation.),
'depth_4': Image(shape=(360, 640, 1), dtype=uint16, description=camera 4 depth observation.),
'image_1': Image(shape=(360, 640, 3), dtype=uint8, description=camera 1 RGB observation.),
'image_2': Image(shape=(360, 640, 3), dtype=uint8, description=camera 2 RGB observation.),
'image_3': Image(shape=(360, 640, 3), dtype=uint8, description=camera 3 RGB observation.),
'image_4': Image(shape=(360, 640, 3), dtype=uint8, description=camera 4 RGB observation.),
'state': Tensor(shape=(4, 4), dtype=float32, description=Robot end-effector state),
}),
'reward': Scalar(shape=(), dtype=float32, description=Reward if provided, 1 on final step for demos.),
}),
})
- Функциональная документация :
Особенность | Сорт | Форма | Дтип | Описание |
---|---|---|---|---|
ВозможностиDict | ||||
эпизод_метаданные | ВозможностиDict | |||
метаданные_эпизода/путь_к файлу | Текст | нить | Путь к исходному файлу данных. | |
шаги | Набор данных | |||
шаги/действия | Тензор | (3,) | float32 | Смещение робота от последнего кадра |
шаги/скидка | Скаляр | float32 | Скидка, если она предусмотрена, по умолчанию равна 1. | |
шаги/is_first | Тензор | логическое значение | ||
шаги/is_last | Тензор | логическое значение | ||
шаги/is_terminal | Тензор | логическое значение | ||
шаги/language_embedding | Тензор | (512,) | float32 | Встраивание языка Kona. См. https://tfhub.dev/google/universal-sentence-encoder-large/5. |
шаги/language_instruction | Текст | нить | Языковое обучение. | |
шаги/наблюдение | ВозможностиDict | |||
шаги/наблюдение/глубина_1 | Изображение | (360, 640, 1) | uint16 | камера 1 наблюдения за глубиной. |
шаги/наблюдение/глубина_2 | Изображение | (360, 640, 1) | uint16 | камера 2 наблюдения за глубиной. |
шаги/наблюдение/глубина_3 | Изображение | (360, 640, 1) | uint16 | камера 3 наблюдения за глубиной. |
шаги/наблюдение/глубина_4 | Изображение | (360, 640, 1) | uint16 | камера 4 наблюдения за глубиной. |
шаги/наблюдение/image_1 | Изображение | (360, 640, 3) | uint8 | камера 1 RGB наблюдения. |
шаги/наблюдение/image_2 | Изображение | (360, 640, 3) | uint8 | камера 2 RGB наблюдения. |
шаги/наблюдение/image_3 | Изображение | (360, 640, 3) | uint8 | камера 3 RGB наблюдения. |
шаги/наблюдение/image_4 | Изображение | (360, 640, 3) | uint8 | камера 4 RGB наблюдения. |
шаги/наблюдение/состояние | Тензор | (4, 4) | float32 | Состояние рабочего органа робота |
шаги/награда | Скаляр | float32 | Награда, если предусмотрена, 1 на последнем этапе демоверсий. |
Контролируемые ключи (см. документ
as_supervised
):None
Рисунок ( tfds.show_examples ): не поддерживается.
Примеры ( tfds.as_dataframe ):
- Цитата :
@article{wang2023d3field,
title={D^3Field: Dynamic 3D Descriptor Fields for Generalizable Robotic Manipulation},
author={Wang, Yixuan and Li, Zhuoran and Zhang, Mingtong and Driggs-Campbell, Katherine and Wu, Jiajun and Fei-Fei, Li and Li, Yunzhu},
journal={arXiv preprint arXiv:},
year={2023},
}