Các hướng dẫn xử lý văn bản TensorFlow cung cấp hướng dẫn từng bước để giải quyết các vấn đề phổ biến về xử lý văn bản và ngôn ngữ tự nhiên (NLP).
TensorFlow cung cấp hai giải pháp để xử lý văn bản và ngôn ngữ tự nhiên: KerasNLP và Văn bản TensorFlow. KerasNLP là thư viện NLP cấp cao bao gồm tất cả các mô hình dựa trên Transformer mới nhất cũng như các tiện ích mã thông báo cấp thấp hơn. Đó là giải pháp được đề xuất cho hầu hết các trường hợp sử dụng NLP.
Nếu bạn cần quyền truy cập vào các công cụ xử lý văn bản cấp thấp hơn, bạn có thể sử dụng Văn bản TensorFlow. TensorFlow Text cung cấp một bộ sưu tập các op và thư viện để giúp bạn làm việc với đầu vào ở dạng văn bản, chẳng hạn như chuỗi văn bản thô hoặc tài liệu.
Máy ảnhNLP
- Bắt đầu với KerasNLP : Tìm hiểu KerasNLP bằng cách thực hiện phân tích tình cảm ở mức độ phức tạp tăng dần, từ việc sử dụng mô hình được đào tạo trước đến xây dựng Transformer của riêng bạn từ đầu.
tạo văn bản
- Tạo văn bản bằng RNN : Tạo văn bản bằng cách sử dụng RNN dựa trên ký tự và bộ dữ liệu về văn bản của Shakespeare.
- Dịch máy thần kinh có chú ý : Huấn luyện mô hình theo trình tự (seq2seq) để dịch từ tiếng Tây Ban Nha sang tiếng Anh.
- Dịch máy thần kinh bằng Máy biến áp và Máy ảnh : Tạo và đào tạo mô hình Máy biến áp theo trình tự theo trình tự để dịch tiếng Bồ Đào Nha sang tiếng Anh.
- Chú thích hình ảnh với sự chú ý trực quan : Tạo chú thích hình ảnh bằng cách sử dụng mô hình bộ giải mã Biến áp được xây dựng với các lớp chú ý.
phân loại văn bản
- Phân loại văn bản với BERT : Tinh chỉnh BERT để thực hiện phân tích tình cảm trên tập dữ liệu các bài đánh giá phim IMDb văn bản thuần túy.
- Phân loại văn bản với RNN : Huấn luyện RNN để thực hiện phân tích tình cảm đối với các bài đánh giá phim IMDb.
- Chỉ số TF.Text : Tìm hiểu về các chỉ số có sẵn thông qua Văn bản TensorFlow. Thư viện chứa các triển khai của các số liệu về độ tương tự của văn bản, chẳng hạn như ROUGE-L, có thể được sử dụng để đánh giá tự động các mô hình tạo văn bản.
NLP với BERT
- Giải quyết các tác vụ GLUE bằng cách sử dụng BERT trên TPU : Tìm hiểu cách tinh chỉnh BERT cho các tác vụ từ điểm chuẩn GLUE .
- Tinh chỉnh mô hình BERT : Tinh chỉnh mô hình BERT bằng TensorFlow Model Garden .
- Học ngôn ngữ sâu nhận biết sự không chắc chắn với BERT-SNGP : Áp dụng SNGP cho nhiệm vụ hiểu ngôn ngữ tự nhiên (NLU). Dựa trên bộ mã hóa BERT, bạn sẽ cải thiện khả năng của mô hình NLU để phát hiện các truy vấn nằm ngoài phạm vi.
nhúng
- Nhúng từ : Huấn luyện các nhúng từ của riêng bạn bằng cách sử dụng mô hình Keras đơn giản cho nhiệm vụ phân loại cảm xúc, sau đó trực quan hóa chúng bằng Trình chiếu nhúng .
- Ma trận lớp nhúng khởi động : Tìm hiểu cách đào tạo "khởi động khởi động" cho mô hình phân loại cảm tính văn bản.
- word2vec : Huấn luyện mô hình word2vec trên một tập dữ liệu nhỏ và trực quan hóa các phần nhúng được đào tạo trong Máy chiếu Nhúng .