utokyo_saytap_converted_externally_to_rlds

  • বর্ণনা :

A1 হাঁটা, আরজিবি নেই

বিভক্ত উদাহরণ
'train' 20
  • বৈশিষ্ট্য গঠন :
FeaturesDict({
    'episode_metadata': FeaturesDict({
        'file_path': Text(shape=(), dtype=string),
    }),
    'steps': Dataset({
        'action': Tensor(shape=(12,), dtype=float32, description=Robot action, consists of [12x joint positios].),
        'discount': Scalar(shape=(), dtype=float32, description=Discount if provided, default to 1.),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'language_embedding': Tensor(shape=(512,), dtype=float32, description=Kona language embedding. See https://tfhub.dev/google/universal-sentence-encoder-large/5),
        'language_instruction': Text(shape=(), dtype=string),
        'observation': FeaturesDict({
            'desired_pattern': Tensor(shape=(4, 5), dtype=bool, description=Desired foot contact pattern for the 4 legs, the 4 rows are for the front right, front left, rear right and rear left legs, the pattern length is 5 (=0.1s).),
            'desired_vel': Tensor(shape=(3,), dtype=float32, description=Desired velocites. The first 2 are linear velocities along and perpendicular to the heading direction, the 3rd is the desired angular velocity about the yaw axis.),
            'image': Image(shape=(64, 64, 3), dtype=uint8, description=Dummy camera RGB observation.),
            'prev_act': Tensor(shape=(12,), dtype=float32, description=Actions applied in the previous step.),
            'proj_grav_vec': Tensor(shape=(3,), dtype=float32, description=The gravity vector [0, 0, -1] in the robot base frame.),
            'state': Tensor(shape=(30,), dtype=float32, description=Robot state, consists of [3x robot base linear velocity, 3x base angular vel, 12x joint position, 12x joint velocity].),
            'wrist_image': Image(shape=(64, 64, 3), dtype=uint8, description=Dummy wrist camera RGB observation.),
        }),
        'reward': Scalar(shape=(), dtype=float32, description=Reward if provided, 1 on final step for demos.),
    }),
})
  • বৈশিষ্ট্য ডকুমেন্টেশন :
বৈশিষ্ট্য ক্লাস আকৃতি ডিটাইপ বর্ণনা
ফিচারসডিক্ট
episode_metadata ফিচারসডিক্ট
episode_metadata/file_path পাঠ্য স্ট্রিং মূল ডেটা ফাইলের পথ।
পদক্ষেপ ডেটাসেট
পদক্ষেপ/ক্রিয়া টেনসর (12,) float32 রোবট কর্ম, [12x যৌথ অবস্থান] নিয়ে গঠিত।
পদক্ষেপ/ছাড় স্কেলার float32 ডিসকাউন্ট দেওয়া হলে, ডিফল্ট 1.
steps/is_first টেনসর bool
ধাপ/শেষ_শেষ টেনসর bool
steps/is_terminal টেনসর bool
পদক্ষেপ/ভাষা_এম্বেডিং টেনসর (512,) float32 কোন ভাষা এম্বেডিং. https://tfhub.dev/google/universal-sentence-encoder-large/5 দেখুন
পদক্ষেপ/ভাষা_নির্দেশ পাঠ্য স্ট্রিং ভাষার নির্দেশনা।
পদক্ষেপ/পর্যবেক্ষণ ফিচারসডিক্ট
পদক্ষেপ/পর্যবেক্ষণ/কাঙ্খিত_প্যাটার্ন টেনসর (৪, ৫) bool 4 পায়ের জন্য পছন্দসই পাদদেশের যোগাযোগের প্যাটার্ন, 4টি সারি সামনের ডান, সামনে বাম, পিছনের ডান এবং পিছনের বাম পায়ের জন্য, প্যাটার্নের দৈর্ঘ্য 5 (=0.1s)।
পদক্ষেপ/পর্যবেক্ষণ/কাঙ্খিত_ভেল টেনসর (৩,) float32 কাঙ্ক্ষিত বেগ। প্রথম 2টি রৈখিক বেগ বরাবর এবং শিরোনামের দিকে লম্ব, 3য়টি ইয়াও অক্ষ সম্পর্কে পছন্দসই কৌণিক বেগ।
পদক্ষেপ/পর্যবেক্ষণ/চিত্র ছবি (৬৪, ৬৪, ৩) uint8 ডামি ক্যামেরা আরজিবি পর্যবেক্ষণ।
পদক্ষেপ/অবজারভেশন/প্রিভ_অ্যাক্ট টেনসর (12,) float32 পূর্ববর্তী ধাপে প্রয়োগ করা ক্রিয়া।
পদক্ষেপ/অবজারভেশন/প্রোজ_গ্রাভ_ভেক টেনসর (৩,) float32 রোবট বেস ফ্রেমে মাধ্যাকর্ষণ ভেক্টর [0, 0, -1]।
পদক্ষেপ/পর্যবেক্ষণ/রাষ্ট্র টেনসর (30,) float32 রোবট অবস্থা, [3x রোবট বেস রৈখিক বেগ, 3x বেস কৌণিক ভেল, 12x যৌথ অবস্থান, 12x যৌথ বেগ] নিয়ে গঠিত।
পদক্ষেপ/পর্যবেক্ষণ/কব্জি_চিত্র ছবি (৬৪, ৬৪, ৩) uint8 ডামি কব্জি ক্যামেরা RGB পর্যবেক্ষণ।
পদক্ষেপ/পুরস্কার স্কেলার float32 প্রদান করা হলে পুরস্কার, ডেমোর জন্য চূড়ান্ত ধাপে 1।
  • উদ্ধৃতি :
@article{saytap2023,
  author = {Yujin Tang and Wenhao Yu and Jie Tan and Heiga Zen and Aleksandra Faust and
Tatsuya Harada},
  title  = {SayTap: Language to Quadrupedal Locomotion},
  eprint = {arXiv:2306.07580},
  url    = {https://saytap.github.io},
  note   = "{https://saytap.github.io}",
  year   = {2023}
}