Scientific_papers
コレクションでコンテンツを整理
必要に応じて、コンテンツの保存と分類を行います。
科学論文データセットには、構造化された長いドキュメントの 2 つのセットが含まれています。データセットは、ArXiv および PubMed OpenAccess リポジトリから取得されます。
「arxiv」と「pubmed」の両方に 2 つの機能があります。
FeaturesDict({
'abstract': Text(shape=(), dtype=string),
'article': Text(shape=(), dtype=string),
'section_names': Text(shape=(), dtype=string),
})
特徴 | クラス | 形 | Dtype | 説明 |
---|
| 特徴辞書 | | | |
概要 | 文章 | | ストリング | |
記事 | 文章 | | ストリング | |
section_names | 文章 | | ストリング | |
@article{Cohan_2018,
title={A Discourse-Aware Attention Model for Abstractive Summarization of
Long Documents},
url={http://dx.doi.org/10.18653/v1/n18-2097},
DOI={10.18653/v1/n18-2097},
journal={Proceedings of the 2018 Conference of the North American Chapter of
the Association for Computational Linguistics: Human Language
Technologies, Volume 2 (Short Papers)},
publisher={Association for Computational Linguistics},
author={Cohan, Arman and Dernoncourt, Franck and Kim, Doo Soon and Bui, Trung and Kim, Seokhwan and Chang, Walter and Goharian, Nazli},
year={2018}
}
Scientific_papers/arxiv (デフォルト設定)
スプリット | 例 |
---|
'test' | 6,440 |
'train' | 203,037 |
'validation' | 6,436 |
Scientific_papers/pubmed
スプリット | 例 |
---|
'test' | 6,658 |
'train' | 119,924 |
'validation' | 6,633 |
特に記載のない限り、このページのコンテンツはクリエイティブ・コモンズの表示 4.0 ライセンスにより使用許諾されます。コードサンプルは Apache 2.0 ライセンスにより使用許諾されます。詳しくは、Google Developers サイトのポリシーをご覧ください。Java は Oracle および関連会社の登録商標です。
最終更新日 2022-12-23 UTC。
[null,null,["最終更新日 2022-12-23 UTC。"],[],[],null,["# scientific_papers\n\n\u003cbr /\u003e\n\n- **Description**:\n\nScientific papers datasets contains two sets of long and structured documents.\nThe datasets are obtained from ArXiv and PubMed OpenAccess repositories.\n\nBoth \"arxiv\" and \"pubmed\" have two features:\n\n- article: the body of the document, pagragraphs seperated by \"/n\".\n- abstract: the abstract of the document, pagragraphs seperated by \"/n\".\n- section_names: titles of sections, seperated by \"/n\".\n\n- **Additional Documentation** :\n [Explore on Papers With Code\n north_east](https://paperswithcode.com/dataset/arxiv-summarization-dataset)\n\n- **Homepage** :\n \u003chttps://github.com/armancohan/long-summarization\u003e\n\n- **Source code** :\n [`tfds.datasets.scientific_papers.Builder`](https://github.com/tensorflow/datasets/tree/master/tensorflow_datasets/datasets/scientific_papers/scientific_papers_dataset_builder.py)\n\n- **Versions**:\n\n - `1.1.0`: No release notes.\n - **`1.1.1`** (default): No release notes.\n- **Download size** : `4.20 GiB`\n\n- **Auto-cached**\n ([documentation](https://www.tensorflow.org/datasets/performances#auto-caching)):\n No\n\n- **Feature structure**:\n\n FeaturesDict({\n 'abstract': Text(shape=(), dtype=string),\n 'article': Text(shape=(), dtype=string),\n 'section_names': Text(shape=(), dtype=string),\n })\n\n- **Feature documentation**:\n\n| Feature | Class | Shape | Dtype | Description |\n|---------------|--------------|-------|--------|-------------|\n| | FeaturesDict | | | |\n| abstract | Text | | string | |\n| article | Text | | string | |\n| section_names | Text | | string | |\n\n- **Supervised keys** (See\n [`as_supervised` doc](https://www.tensorflow.org/datasets/api_docs/python/tfds/load#args)):\n `('article', 'abstract')`\n\n- **Figure**\n ([tfds.show_examples](https://www.tensorflow.org/datasets/api_docs/python/tfds/visualization/show_examples)):\n Not supported.\n\n- **Citation**:\n\n @article{Cohan_2018,\n title={A Discourse-Aware Attention Model for Abstractive Summarization of\n Long Documents},\n url={http://dx.doi.org/10.18653/v1/n18-2097},\n DOI={10.18653/v1/n18-2097},\n journal={Proceedings of the 2018 Conference of the North American Chapter of\n the Association for Computational Linguistics: Human Language\n Technologies, Volume 2 (Short Papers)},\n publisher={Association for Computational Linguistics},\n author={Cohan, Arman and Dernoncourt, Franck and Kim, Doo Soon and Bui, Trung and Kim, Seokhwan and Chang, Walter and Goharian, Nazli},\n year={2018}\n }\n\nscientific_papers/arxiv (default config)\n----------------------------------------\n\n- **Config description**: Documents from ArXiv repository.\n\n- **Dataset size** : `7.07 GiB`\n\n- **Splits**:\n\n| Split | Examples |\n|----------------|----------|\n| `'test'` | 6,440 |\n| `'train'` | 203,037 |\n| `'validation'` | 6,436 |\n\n- **Examples** ([tfds.as_dataframe](https://www.tensorflow.org/datasets/api_docs/python/tfds/as_dataframe)):\n\nDisplay examples... \n\nscientific_papers/pubmed\n------------------------\n\n- **Config description**: Documents from PubMed repository.\n\n- **Dataset size** : `2.34 GiB`\n\n- **Splits**:\n\n| Split | Examples |\n|----------------|----------|\n| `'test'` | 6,658 |\n| `'train'` | 119,924 |\n| `'validation'` | 6,633 |\n\n- **Examples** ([tfds.as_dataframe](https://www.tensorflow.org/datasets/api_docs/python/tfds/as_dataframe)):\n\nDisplay examples..."]]