Ta strona zawiera zestaw znanych przewodników i narzędzi rozwiązujących problemy w domenie tekstowej za pomocą TensorFlow Hub. Jest to punkt wyjścia dla każdego, kto chce rozwiązywać typowe problemy ML przy użyciu wstępnie wytrenowanych komponentów ML, a nie zaczynać od zera.
Klasyfikacja
Kiedy chcemy przewidzieć klasę dla danego przykładu, na przykład sentymentu, toksyczności, kategoria artykule lub jakiejkolwiek innej cechy.
Poniższe tutoriale rozwiązują to samo zadanie z różnych perspektyw i przy użyciu różnych narzędzi.
Keras
Klasyfikacja tekst z Keras - przykład dla budowania nastrojów klasyfikator IMDB z Keras i TensorFlow zbiorów danych.
Taksator
Klasyfikacja tekst - przykład dla budowania nastrojów klasyfikator IMDB z prognozy. Zawiera wiele wskazówek dotyczących ulepszeń oraz sekcję porównującą moduły.
BERT
Przewidywanie Przegląd filmów Sentiment z Bertem na TF Hub - pokazuje, jak korzystać z modułu BERT klasyfikacji. Obejmuje korzystanie z bert
Biblioteka dla tokeny i wyprzedzającym.
Kaggle
Klasyfikacja na IMDB Kaggle - pokazuje, jak łatwo wchodzić w interakcje z konkursu Kaggle ze Colab, w tym pobieranie danych i przekazywanie wyników.
Taksator | Keras | TF2 | Zbiory danych TF | BERT | Interfejsy API Kaggle | |
---|---|---|---|---|---|---|
Klasyfikacja tekstu | ![]() | |||||
Klasyfikacja tekstu z Keras | ![]() | ![]() | ![]() | |||
Przewidywanie nastrojów z recenzji filmów z BERT na TF Hub | ![]() | ![]() | ||||
Klasyfikacja IMDB na Kaggle | ![]() | ![]() |
Zadanie Bangla z osadzaniami FastText
TensorFlow Hub nie oferuje obecnie modułu w każdym języku. Poniższy samouczek pokazuje, jak wykorzystać TensorFlow Hub do szybkiego eksperymentowania i modułowego rozwoju ML.
Bangla Artykuł klasyfikator - pokazuje, jak utworzyć wielokrotnego użytku TensorFlow Hub osadzanie tekstu, oraz wykorzystanie go do pociągu klasyfikator Keras dla BARD Bangla art zbiorze .
Podobieństwo semantyczne
Gdy chcemy dowiedzieć się, które zdania korelują ze sobą w konfiguracji zero-shot (brak przykładów treningowych).
Podstawowy
Semantyczne podobieństwo - pokazuje, jak korzystać z modułu nadajnika do obliczenia zdanie zdanie podobieństwo.
Wielojęzyczny
Cross-zyczne podobieństwo semantyczne - pokazuje, jak używać jednego z cross-językowych koderów zdanie do obliczenia zdanie podobieństwa w różnych językach.
Wyszukiwanie semantyczne
Wyszukiwanie semantyczne - pokazuje, jak używać Q / zdanie enkoder do indeksu zbiór dokumentów do pobierania na podstawie podobieństwa semantycznego.
Wprowadzanie fragmentu zdania
Semantyczne podobieństwo z uniwersalnego enkodera lite - pokazuje, jak używać modułów kodera zdanie, które akceptują SentencePiece identyfikatory na wejściu zamiast tekstu.
Tworzenie modułu
Zamiast używać tylko moduły na hub.tensorflow.google.cn , istnieją sposoby, aby tworzyć własne moduły. Może to być przydatne narzędzie do lepszej modułowości bazy kodu ML i dalszego udostępniania.
Zawijanie istniejących wstępnie przeszkolonych osadzeń
Tekst moduł osadzania eksporter - narzędzie do zawijania istniejącego uprzednio przeszkolony osadzania w module. Pokazuje, jak dołączyć do modułu operacje wstępnego przetwarzania tekstu. Pozwala to stworzyć moduł osadzania zdań z osadzania tokenów.
Tekst moduł osadzania eksporterem v2 - jak wyżej, ale kompatybilny z TensorFlow 2 i chętny wykonania.