- Mô tả :
Tạo tiêu đề trên một tập hợp các cặp bài viết từ Gigaword bao gồm khoảng 4 triệu bài viết. Sử dụng 'org_data' do https://github.com/microsoft/unilm/ cung cấp, giống với https://github.com/harvardnlp/sent-summary nhưng có định dạng tốt hơn.
Có hai tính năng: - tài liệu: bài báo. - tóm tắt: đầu đề.
Trang chủ : https://github.com/harvardnlp/sent-summary
Mã nguồn :
tfds.summarization.Gigaword
Phiên bản :
-
1.2.0
(mặc định): Không có ghi chú phát hành.
-
Kích thước tải xuống :
551.61 MiB
Kích thước tập dữ liệu :
1.02 GiB
Tự động lưu vào bộ nhớ cache ( tài liệu ): Không
Chia tách :
Tách ra | ví dụ |
---|---|
'test' | 1.951 |
'train' | 3,803,957 |
'validation' | 189,651 |
- Cấu trúc tính năng :
FeaturesDict({
'document': Text(shape=(), dtype=string),
'summary': Text(shape=(), dtype=string),
})
- Tài liệu tính năng :
Tính năng | Lớp | Hình dạng | Dtype | Sự mô tả |
---|---|---|---|---|
Tính năngDict | ||||
tài liệu | Chữ | sợi dây | ||
bản tóm tắt | Chữ | sợi dây |
Các khóa được giám sát (Xem
as_supervised
doc ):('document', 'summary')
Hình ( tfds.show_examples ): Không được hỗ trợ.
Ví dụ ( tfds.as_dataframe ):
- trích dẫn :
@article{graff2003english,
title={English gigaword},
author={Graff, David and Kong, Junbo and Chen, Ke and Maeda, Kazuaki},
journal={Linguistic Data Consortium, Philadelphia},
volume={4},
number={1},
pages={34},
year={2003}
}
@article{Rush_2015,
title={A Neural Attention Model for Abstractive Sentence Summarization},
url={http://dx.doi.org/10.18653/v1/D15-1044},
DOI={10.18653/v1/d15-1044},
journal={Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing},
publisher={Association for Computational Linguistics},
author={Rush, Alexander M. and Chopra, Sumit and Weston, Jason},
year={2015}
}