reddit_tifu
จัดทุกอย่างให้เป็นระเบียบอยู่เสมอด้วยคอลเล็กชัน
บันทึกและจัดหมวดหมู่เนื้อหาตามค่ากำหนดของคุณ
ชุดข้อมูล Reddit โดยที่ TIFU หมายถึงชื่อของ subbreddit /r/tifu ตามที่กำหนดไว้ในสื่อเผยแพร่ สไตล์ "สั้น" ใช้ชื่อเป็นบทสรุป และ "ยาว" ใช้ tldr เป็นสรุป
คุณสมบัติรวมถึง:
- เอกสาร: โพสต์ข้อความโดยไม่มี tldr
- tldr: บรรทัด tldr
- หัวเรื่อง: หัวเรื่องที่ถูกตัดแต่งโดยไม่มี tldr
- อัพ: อัพโหวต
- คะแนน: คะแนน
- num_comments: จำนวนความคิดเห็น
upvote_ratio: อัตราส่วนการโหวต
เอกสารประกอบเพิ่มเติม : สำรวจเอกสารด้วยรหัส north_east
หน้าแรก : https://github.com/ctr4si/MMN
รหัสที่มา : tfds.datasets.reddit_tifu.Builder
รุ่น :
-
1.1.0
: ลบเอกสารเปล่าและสตริงสรุป -
1.1.1
: เพิ่มการแยกรถไฟ การพัฒนา และการทดสอบ (80/10/10) ที่ใช้ใน PEGASUS ( https://arxiv.org/abs/1912.08777 ) ในการกำหนดค่าแยกต่างหาก สิ่งเหล่านี้ถูกสร้างขึ้นแบบสุ่มโดยใช้ฟังก์ชันแยก tfds และกำลังเผยแพร่เพื่อให้แน่ใจว่าผลลัพธ์ใน Reddit Tifu Long นั้นสามารถทำซ้ำได้และเปรียบเทียบได้ เพิ่ม id
ให้กับดาต้าพอยต์ด้วย -
1.1.2
(ค่าเริ่มต้น): อัปโหลดการแยกที่ถูกต้องแล้ว
โครงสร้างคุณลักษณะ :
FeaturesDict({
'documents': Text(shape=(), dtype=string),
'id': Text(shape=(), dtype=string),
'num_comments': float32,
'score': float32,
'title': Text(shape=(), dtype=string),
'tldr': Text(shape=(), dtype=string),
'ups': float32,
'upvote_ratio': float32,
})
คุณสมบัติ | ระดับ | รูปร่าง | Dประเภท | คำอธิบาย |
---|
| คุณสมบัติDict | | | |
เอกสาร | ข้อความ | | สตริง | |
รหัส | ข้อความ | | สตริง | |
num_comments | เทนเซอร์ | | ลอย32 | |
คะแนน | เทนเซอร์ | | ลอย32 | |
ชื่อ | ข้อความ | | สตริง | |
tldr | ข้อความ | | สตริง | |
อัพ | เทนเซอร์ | | ลอย32 | |
upvote_ratio | เทนเซอร์ | | ลอย32 | |
@misc{kim2018abstractive,
title={Abstractive Summarization of Reddit Posts with Multi-level Memory Networks},
author={Byeongchang Kim and Hyunwoo Kim and Gunhee Kim},
year={2018},
eprint={1811.00783},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
reddit_tifu/short (การกำหนดค่าเริ่มต้น)
คำอธิบาย การกำหนดค่า : การใช้ชื่อเป็นข้อมูลสรุป
ขนาดการดาวน์โหลด : 639.54 MiB
ขนาดชุดข้อมูล : 141.46 MiB
แคชอัตโนมัติ ( เอกสาร ): เฉพาะเมื่อ shuffle_files=False
(รถไฟ)
แยก :
แยก | ตัวอย่าง |
---|
'train' | 79,740 |
reddit_tifu/long
คำอธิบาย การกำหนดค่า : การใช้ TLDR เป็นข้อมูลสรุป
ขนาดการดาวน์โหลด : 639.54 MiB
ขนาดชุดข้อมูล : 93.10 MiB
แคชอัตโนมัติ ( เอกสาร ): ใช่
แยก :
แยก | ตัวอย่าง |
---|
'train' | 42,139 |
reddit_tifu/long_split
คำอธิบาย การกำหนดค่า : การใช้ TLDR เป็นข้อมูลสรุปและส่งคืนการแยกรถไฟ/การทดสอบ/การพัฒนา
ขนาดการดาวน์โหลด : 639.94 MiB
ขนาดชุดข้อมูล : 93.10 MiB
แคชอัตโนมัติ ( เอกสาร ): ใช่
แยก :
แยก | ตัวอย่าง |
---|
'test' | 4,214 |
'train' | 33,711 |
'validation' | 4,214 |
เนื้อหาของหน้าเว็บนี้ได้รับอนุญาตภายใต้ใบอนุญาตที่ต้องระบุที่มาของครีเอทีฟคอมมอนส์ 4.0 และตัวอย่างโค้ดได้รับอนุญาตภายใต้ใบอนุญาต Apache 2.0 เว้นแต่จะระบุไว้เป็นอย่างอื่น โปรดดูรายละเอียดที่นโยบายเว็บไซต์ Google Developers Java เป็นเครื่องหมายการค้าจดทะเบียนของ Oracle และ/หรือบริษัทในเครือ
อัปเดตล่าสุด 2022-12-23 UTC
[null,null,["อัปเดตล่าสุด 2022-12-23 UTC"],[],[],null,["# reddit_tifu\n\n\u003cbr /\u003e\n\n- **Description**:\n\nReddit dataset, where TIFU denotes the name of subbreddit /r/tifu. As defined in\nthe publication, style \"short\" uses title as summary and \"long\" uses tldr as\nsummary.\n\nFeatures includes:\n\n- document: post text without tldr.\n- tldr: tldr line.\n- title: trimmed title without tldr.\n- ups: upvotes.\n- score: score.\n- num_comments: number of comments.\n- upvote_ratio: upvote ratio.\n\n- **Additional Documentation** :\n [Explore on Papers With Code\n north_east](https://paperswithcode.com/dataset/reddit-tifu)\n\n- **Homepage** : \u003chttps://github.com/ctr4si/MMN\u003e\n\n- **Source code** :\n [`tfds.datasets.reddit_tifu.Builder`](https://github.com/tensorflow/datasets/tree/master/tensorflow_datasets/datasets/reddit_tifu/reddit_tifu_dataset_builder.py)\n\n- **Versions**:\n\n - `1.1.0`: Remove empty document and summary strings.\n - `1.1.1`: Add train, dev and test (80/10/10) splits which are used in PEGASUS (\u003chttps://arxiv.org/abs/1912.08777\u003e) in a separate config. These were created randomly using the tfds split function and are being released to ensure that results on Reddit Tifu Long are reproducible and comparable.Also add `id` to the datapoints.\n - **`1.1.2`** (default): Corrected splits uploaded.\n- **Feature structure**:\n\n FeaturesDict({\n 'documents': Text(shape=(), dtype=string),\n 'id': Text(shape=(), dtype=string),\n 'num_comments': float32,\n 'score': float32,\n 'title': Text(shape=(), dtype=string),\n 'tldr': Text(shape=(), dtype=string),\n 'ups': float32,\n 'upvote_ratio': float32,\n })\n\n- **Feature documentation**:\n\n| Feature | Class | Shape | Dtype | Description |\n|--------------|--------------|-------|---------|-------------|\n| | FeaturesDict | | | |\n| documents | Text | | string | |\n| id | Text | | string | |\n| num_comments | Tensor | | float32 | |\n| score | Tensor | | float32 | |\n| title | Text | | string | |\n| tldr | Text | | string | |\n| ups | Tensor | | float32 | |\n| upvote_ratio | Tensor | | float32 | |\n\n- **Figure**\n ([tfds.show_examples](https://www.tensorflow.org/datasets/api_docs/python/tfds/visualization/show_examples)):\n Not supported.\n\n- **Citation**:\n\n @misc{kim2018abstractive,\n title={Abstractive Summarization of Reddit Posts with Multi-level Memory Networks},\n author={Byeongchang Kim and Hyunwoo Kim and Gunhee Kim},\n year={2018},\n eprint={1811.00783},\n archivePrefix={arXiv},\n primaryClass={cs.CL}\n }\n\nreddit_tifu/short (default config)\n----------------------------------\n\n- **Config description**: Using title as summary.\n\n- **Download size** : `639.54 MiB`\n\n- **Dataset size** : `141.46 MiB`\n\n- **Auto-cached**\n ([documentation](https://www.tensorflow.org/datasets/performances#auto-caching)):\n Only when `shuffle_files=False` (train)\n\n- **Splits**:\n\n| Split | Examples |\n|-----------|----------|\n| `'train'` | 79,740 |\n\n- **Supervised keys** (See\n [`as_supervised` doc](https://www.tensorflow.org/datasets/api_docs/python/tfds/load#args)):\n `('documents', 'title')`\n\n- **Examples**\n ([tfds.as_dataframe](https://www.tensorflow.org/datasets/api_docs/python/tfds/as_dataframe)):\n\nDisplay examples... \n\nreddit_tifu/long\n----------------\n\n- **Config description**: Using TLDR as summary.\n\n- **Download size** : `639.54 MiB`\n\n- **Dataset size** : `93.10 MiB`\n\n- **Auto-cached**\n ([documentation](https://www.tensorflow.org/datasets/performances#auto-caching)):\n Yes\n\n- **Splits**:\n\n| Split | Examples |\n|-----------|----------|\n| `'train'` | 42,139 |\n\n- **Supervised keys** (See\n [`as_supervised` doc](https://www.tensorflow.org/datasets/api_docs/python/tfds/load#args)):\n `('documents', 'tldr')`\n\n- **Examples**\n ([tfds.as_dataframe](https://www.tensorflow.org/datasets/api_docs/python/tfds/as_dataframe)):\n\nDisplay examples... \n\nreddit_tifu/long_split\n----------------------\n\n- **Config description**: Using TLDR as summary and return train/test/dev\n splits.\n\n- **Download size** : `639.94 MiB`\n\n- **Dataset size** : `93.10 MiB`\n\n- **Auto-cached**\n ([documentation](https://www.tensorflow.org/datasets/performances#auto-caching)):\n Yes\n\n- **Splits**:\n\n| Split | Examples |\n|----------------|----------|\n| `'test'` | 4,214 |\n| `'train'` | 33,711 |\n| `'validation'` | 4,214 |\n\n- **Supervised keys** (See\n [`as_supervised` doc](https://www.tensorflow.org/datasets/api_docs/python/tfds/load#args)):\n `('documents', 'tldr')`\n\n- **Examples**\n ([tfds.as_dataframe](https://www.tensorflow.org/datasets/api_docs/python/tfds/as_dataframe)):\n\nDisplay examples..."]]