cs_restaurants

  • 説明:

レストラン ドメインのチェコ語のデータからテキストへのデータセット。入力意味表現には、対話行為の種類 (通知、確認など)、スロット (食べ物、エリアなど) とその値が含まれます。これは、Wen らによる英語の San Francisco Restaurants データセットの翻訳として生まれました。 (2015)。

スプリット
'test' 842
'train' 3,569
'validation' 781
  • 機能構造:
FeaturesDict({
   
'delex_input_text': FeaturesDict({
       
'table': Sequence({
           
'column_header': string,
           
'content': string,
           
'row_number': int16,
       
}),
   
}),
   
'delex_target_text': string,
   
'input_text': FeaturesDict({
       
'table': Sequence({
           
'column_header': string,
           
'content': string,
           
'row_number': int16,
       
}),
   
}),
   
'target_text': string,
})
  • 機能のドキュメント:
特徴クラスDtype説明
特徴辞書
delex_input_text特徴辞書
delex_input_text/テーブル順序
delex_input_text/table/column_headerテンソルストリング
delex_input_text/テーブル/コンテンツテンソルストリング
delex_input_text/table/row_numberテンソルint16
delex_target_textテンソルストリング
入力テキスト特徴辞書
入力テキスト/テーブル順序
input_text/table/column_headerテンソルストリング
入力テキスト/テーブル/コンテンツテンソルストリング
入力テキスト/テーブル/行番号テンソルint16
target_textテンソルストリング
  • 引用
@inproceedings{dusek_neural_2019,
        author
= {Dušek, Ondřej and Jurčíček, Filip},
        title
= {Neural {Generation} for {Czech}: {Data} and {Baselines} },
        shorttitle
= {Neural {Generation} for {Czech} },
        url
= {https://www.aclweb.org/anthology/W19-8670/},
        urldate
= {2019-10-18},
        booktitle
= {Proceedings of the 12th {International} {Conference} on {Natural} {Language} {Generation} ({INLG} 2019)},
        month
= oct,
        address
= {Tokyo, Japan},
        year
= {2019},
        pages
= {563--574},
       
abstract = {We present the first dataset targeted at end-to-end NLG in Czech in the restaurant domain, along with several strong baseline models using the sequence-to-sequence approach. While non-English NLG is under-explored in general, Czech, as a morphologically rich language, makes the task even harder: Since Czech requires inflecting named entities, delexicalization or copy mechanisms do not work out-of-the-box and lexicalizing the generated outputs is non-trivial. In our experiments, we present two different approaches to this this problem: (1) using a neural language model to select the correct inflected form while lexicalizing, (2) a two-step generation setup: our sequence-to-sequence model generates an interleaved sequence of lemmas and morphological tags, which are then inflected by a morphological generator.},
}