- Açıklama :
Corr2cause
Nedensel çıkarım, insan zekasının ayırt edici özelliklerinden biridir.
Corr2cause, ilgili makalede on yedi mevcut LLM'nin değerlendirildiği 400.000'den fazla örnekten oluşan büyük ölçekli bir veri kümesidir.
Genel olarak Corr2cause, %18,57'si geçerli örnekler olmak üzere 415.944 örnek içerir. Öncülün ortalama uzunluğu 424,11 jeton ve hipotez 10,83 jetondur. Veriler sırasıyla 411.452 eğitim örneğine, 2.246 geliştirme ve test örneğine bölünmüştür. Veri setinin asıl amacı LLM'lerin performansını kıyaslamak olduğundan, test ve geliştirme setlerinin tüm grafik boyutlarını kapsamlı bir şekilde kapsaması için öncelik verilmiştir.
Ana sayfa : https://github.com/causalNLP/corr2cause/tree/main
Kaynak kodu :
tfds.datasets.corr2cause.Builder
Sürümler :
-
1.0.0
(varsayılan): İlk sürüm.
-
İndirme boyutu :
727.22 MiB
Veri kümesi boyutu :
739.91 MiB
Otomatik önbelleğe alınmış ( belgeler ): Hayır
Bölünmeler :
Bölmek | Örnekler |
---|---|
'dev' | 2.246 |
'test' | 2.246 |
'train' | 411.452 |
- Özellik yapısı :
FeaturesDict({
'input': Text(shape=(), dtype=string),
'label': int64,
})
- Özellik belgeleri :
Özellik | Sınıf | Şekil | Dtipi | Tanım |
---|---|---|---|---|
ÖzelliklerDict | ||||
giriş | Metin | sicim | ||
etiket | Tensör | int64 |
Denetlenen anahtarlar (
as_supervised
belgesine bakın):None
Şekil ( tfds.show_examples ): Desteklenmiyor.
Örnekler ( tfds.as_dataframe ):
- Alıntı :
@misc{jin2023large,
title={Can Large Language Models Infer Causation from Correlation?},
author={Zhijing Jin and Jiarui Liu and Zhiheng Lyu and Spencer Poff and Mrinmaya Sachan and Rada Mihalcea and Mona Diab and Bernhard Schölkopf},
year={2023},
eprint={2306.05836},
archivePrefix={arXiv},
primaryClass={cs.CL}
}