rlu_dmlab_explore_object_rewards_few

  • 설명 :

RL Unplugged는 오프라인 강화 학습을 위한 벤치마크 제품군입니다. RL Unplugged는 다음 고려 사항을 중심으로 설계되었습니다. 사용 편의성을 위해 일반 파이프라인이 설정되면 실무자가 제품군의 모든 데이터로 쉽게 작업할 수 있도록 데이터 세트에 통합 API를 제공합니다.

데이터 세트는 RLDS 형식 을 따라 단계와 에피소드를 나타냅니다.

DeepMind Lab 데이터 세트에는 도전적이고 부분적으로 관찰 가능한 Deepmind Lab 제품군 의 여러 수준이 있습니다. DeepMind Lab 데이터 세트는 Kapturowski et al., 2018 에이전트가 개별 작업에 대해 처음부터 분산 R2D2를 훈련하여 수집합니다. 모든 작업에 대해 전체 교육 실행 동안 모든 배우의 경험을 기록했습니다. 데이터 세트 생성 프로세스의 세부 사항은 Gulcehre et al., 2021 에 설명되어 있습니다.

우리는 5개의 다른 DeepMind Lab 레벨에 대한 데이터 세트를 출시합니다: seekavoid_arena_01 , explore_rewards_few , explore_rewards_many , rooms_watermaze , rooms_select_nonmatching_object . 또한 환경에서 에이전트를 평가할 때 엡실론 탐욕 알고리즘에 대해 다양한 수준의 엡실론을 사용하여 훈련된 R2D2 스냅샷에서 데이터세트를 생성한 seekavoid_arena_01 수준의 스냅샷 데이터세트를 공개합니다.

DeepMind Lab 데이터 세트는 상당히 대규모입니다. 메모리가 있는 대규모 오프라인 RL 모델에 관심이 있는 분들은 한 번 해보는 것을 추천합니다.

나뉘다
'train' 89,144
  • 기능 구조 :
FeaturesDict({
    'episode_id': tf.int64,
    'episode_return': tf.float32,
    'steps': Dataset({
        'action': tf.int64,
        'discount': tf.float32,
        'is_first': tf.bool,
        'is_last': tf.bool,
        'is_terminal': tf.bool,
        'observation': FeaturesDict({
            'last_action': tf.int64,
            'last_reward': tf.float32,
            'pixels': Image(shape=(72, 96, 3), dtype=tf.uint8),
        }),
        'reward': tf.float32,
    }),
})
  • 기능 문서 :
특징 수업 모양 디타입 설명
기능사전
에피소드 ID 텐서 tf.int64
에피소드_리턴 텐서 tf.float32
단계 데이터세트
단계/조치 텐서 tf.int64
단계/할인 텐서 tf.float32
단계/is_first 텐서 tf.bool
단계/is_last 텐서 tf.bool
단계/is_terminal 텐서 tf.bool
단계/관찰 기능사전
단계/관찰/last_action 텐서 tf.int64
단계/관찰/last_reward 텐서 tf.float32
단계/관찰/픽셀 영상 (72, 96, 3) tf.uint8
단계/보상 텐서 tf.float32
@article{gulcehre2021rbve,
    title={Regularized Behavior Value Estimation},
    author={ {\c{C} }aglar G{\"{u} }l{\c{c} }ehre and
               Sergio G{\'{o} }mez Colmenarejo and
               Ziyu Wang and
               Jakub Sygnowski and
               Thomas Paine and
               Konrad Zolna and
               Yutian Chen and
               Matthew W. Hoffman and
               Razvan Pascanu and
               Nando de Freitas},
    year={2021},
    journal   = {CoRR},
    url       = {https://arxiv.org/abs/2103.09575},
    eprint={2103.09575},
    archivePrefix={arXiv},
}

rlu_dmlab_explore_object_rewards_few/training_0(기본 구성)

rlu_dmlab_explore_object_rewards_few/training_1

rlu_dmlab_explore_object_rewards_few/training_2