نص ويكي

مراجع:

نص ويكي-103-v1

استخدم الأمر التالي لتحميل مجموعة البيانات هذه في TFDS:

ds = tfds.load('huggingface:wikitext/wikitext-103-v1')
  • وصف :
The WikiText language modeling dataset is a collection of over 100 million tokens extracted from the set of verified
 Good and Featured articles on Wikipedia. The dataset is available under the Creative Commons Attribution-ShareAlike
 License.
  • الترخيص : Creative Commons Attribution-ShareAlike 4.0 International (CC BY-SA 4.0)
  • الإصدار : 1.0.0
  • الإنشقاقات :
ينقسم أمثلة
'test' 4358
'train' 1801350
'validation' 3760
  • سمات :
{
    "text": {
        "dtype": "string",
        "id": null,
        "_type": "Value"
    }
}

نص ويكي-2-v1

استخدم الأمر التالي لتحميل مجموعة البيانات هذه في TFDS:

ds = tfds.load('huggingface:wikitext/wikitext-2-v1')
  • وصف :
The WikiText language modeling dataset is a collection of over 100 million tokens extracted from the set of verified
 Good and Featured articles on Wikipedia. The dataset is available under the Creative Commons Attribution-ShareAlike
 License.
  • الترخيص : Creative Commons Attribution-ShareAlike 4.0 International (CC BY-SA 4.0)
  • الإصدار : 1.0.0
  • الإنشقاقات :
ينقسم أمثلة
'test' 4358
'train' 36718
'validation' 3760
  • سمات :
{
    "text": {
        "dtype": "string",
        "id": null,
        "_type": "Value"
    }
}

ويكي النص-103-الخام-v1

استخدم الأمر التالي لتحميل مجموعة البيانات هذه في TFDS:

ds = tfds.load('huggingface:wikitext/wikitext-103-raw-v1')
  • وصف :
The WikiText language modeling dataset is a collection of over 100 million tokens extracted from the set of verified
 Good and Featured articles on Wikipedia. The dataset is available under the Creative Commons Attribution-ShareAlike
 License.
  • الترخيص : Creative Commons Attribution-ShareAlike 4.0 International (CC BY-SA 4.0)
  • الإصدار : 1.0.0
  • الإنشقاقات :
ينقسم أمثلة
'test' 4358
'train' 1801350
'validation' 3760
  • سمات :
{
    "text": {
        "dtype": "string",
        "id": null,
        "_type": "Value"
    }
}

Wikitext-2-raw-v1

استخدم الأمر التالي لتحميل مجموعة البيانات هذه في TFDS:

ds = tfds.load('huggingface:wikitext/wikitext-2-raw-v1')
  • وصف :
The WikiText language modeling dataset is a collection of over 100 million tokens extracted from the set of verified
 Good and Featured articles on Wikipedia. The dataset is available under the Creative Commons Attribution-ShareAlike
 License.
  • الترخيص : Creative Commons Attribution-ShareAlike 4.0 International (CC BY-SA 4.0)
  • الإصدار : 1.0.0
  • الإنشقاقات :
ينقسم أمثلة
'test' 4358
'train' 36718
'validation' 3760
  • سمات :
{
    "text": {
        "dtype": "string",
        "id": null,
        "_type": "Value"
    }
}