ข้อความวิกิ

อ้างอิง:

วิกิเท็กซ์-103-v1

ใช้คำสั่งต่อไปนี้เพื่อโหลดชุดข้อมูลนี้ใน TFDS:

ds = tfds.load('huggingface:wikitext/wikitext-103-v1')
  • คำอธิบาย :
The WikiText language modeling dataset is a collection of over 100 million tokens extracted from the set of verified
 Good and Featured articles on Wikipedia. The dataset is available under the Creative Commons Attribution-ShareAlike
 License.
  • ใบอนุญาต : Creative Commons Attribution-ShareAlike 4.0 International (CC BY-SA 4.0)
  • เวอร์ชัน : 1.0.0
  • แยก :
แยก ตัวอย่าง
'test' 4358
'train' 1801350
'validation' 3760
  • คุณสมบัติ :
{
    "text": {
        "dtype": "string",
        "id": null,
        "_type": "Value"
    }
}

วิกิเท็กซ์-2-v1

ใช้คำสั่งต่อไปนี้เพื่อโหลดชุดข้อมูลนี้ใน TFDS:

ds = tfds.load('huggingface:wikitext/wikitext-2-v1')
  • คำอธิบาย :
The WikiText language modeling dataset is a collection of over 100 million tokens extracted from the set of verified
 Good and Featured articles on Wikipedia. The dataset is available under the Creative Commons Attribution-ShareAlike
 License.
  • ใบอนุญาต : Creative Commons Attribution-ShareAlike 4.0 International (CC BY-SA 4.0)
  • เวอร์ชัน : 1.0.0
  • แยก :
แยก ตัวอย่าง
'test' 4358
'train' 36718
'validation' 3760
  • คุณสมบัติ :
{
    "text": {
        "dtype": "string",
        "id": null,
        "_type": "Value"
    }
}

วิกิเท็กซ์-103-ดิบ-v1

ใช้คำสั่งต่อไปนี้เพื่อโหลดชุดข้อมูลนี้ใน TFDS:

ds = tfds.load('huggingface:wikitext/wikitext-103-raw-v1')
  • คำอธิบาย :
The WikiText language modeling dataset is a collection of over 100 million tokens extracted from the set of verified
 Good and Featured articles on Wikipedia. The dataset is available under the Creative Commons Attribution-ShareAlike
 License.
  • ใบอนุญาต : Creative Commons Attribution-ShareAlike 4.0 International (CC BY-SA 4.0)
  • เวอร์ชัน : 1.0.0
  • แยก :
แยก ตัวอย่าง
'test' 4358
'train' 1801350
'validation' 3760
  • คุณสมบัติ :
{
    "text": {
        "dtype": "string",
        "id": null,
        "_type": "Value"
    }
}

วิกิเท็กซ์-2-ดิบ-v1

ใช้คำสั่งต่อไปนี้เพื่อโหลดชุดข้อมูลนี้ใน TFDS:

ds = tfds.load('huggingface:wikitext/wikitext-2-raw-v1')
  • คำอธิบาย :
The WikiText language modeling dataset is a collection of over 100 million tokens extracted from the set of verified
 Good and Featured articles on Wikipedia. The dataset is available under the Creative Commons Attribution-ShareAlike
 License.
  • ใบอนุญาต : Creative Commons Attribution-ShareAlike 4.0 International (CC BY-SA 4.0)
  • เวอร์ชัน : 1.0.0
  • แยก :
แยก ตัวอย่าง
'test' 4358
'train' 36718
'validation' 3760
  • คุณสมบัติ :
{
    "text": {
        "dtype": "string",
        "id": null,
        "_type": "Value"
    }
}