Tekst książki kucharskiej

Ta strona zawiera zestaw znanych przewodników i narzędzi rozwiązujących problemy w domenie tekstowej za pomocą TensorFlow Hub. Jest to punkt wyjścia dla każdego, kto chce rozwiązywać typowe problemy ML przy użyciu wstępnie wytrenowanych komponentów ML, a nie zaczynać od zera.

Klasyfikacja

Kiedy chcemy przewidzieć klasę dla danego przykładu, na przykład sentymentu, toksyczności, kategoria artykule lub jakiejkolwiek innej cechy.

Grafika klasyfikacji tekstu

Poniższe tutoriale rozwiązują to samo zadanie z różnych perspektyw i przy użyciu różnych narzędzi.

Keras

Klasyfikacja tekst z Keras - przykład dla budowania nastrojów klasyfikator IMDB z Keras i TensorFlow zbiorów danych.

Taksator

Klasyfikacja tekst - przykład dla budowania nastrojów klasyfikator IMDB z prognozy. Zawiera wiele wskazówek dotyczących ulepszeń oraz sekcję porównującą moduły.

BERT

Przewidywanie Przegląd filmów Sentiment z Bertem na TF Hub - pokazuje, jak korzystać z modułu BERT klasyfikacji. Obejmuje korzystanie z bert Biblioteka dla tokeny i wyprzedzającym.

Kaggle

Klasyfikacja na IMDB Kaggle - pokazuje, jak łatwo wchodzić w interakcje z konkursu Kaggle ze Colab, w tym pobieranie danych i przekazywanie wyników.

Taksator Keras TF2 Zbiory danych TF BERT Interfejsy API Kaggle
Klasyfikacja tekstu Gotowe
Klasyfikacja tekstu z Keras GotoweGotoweGotowe
Przewidywanie nastrojów z recenzji filmów z BERT na TF Hub GotoweGotowe
Klasyfikacja IMDB na Kaggle GotoweGotowe

Zadanie Bangla z osadzaniami FastText

TensorFlow Hub nie oferuje obecnie modułu w każdym języku. Poniższy samouczek pokazuje, jak wykorzystać TensorFlow Hub do szybkiego eksperymentowania i modułowego rozwoju ML.

Bangla Artykuł klasyfikator - pokazuje, jak utworzyć wielokrotnego użytku TensorFlow Hub osadzanie tekstu, oraz wykorzystanie go do pociągu klasyfikator Keras dla BARD Bangla art zbiorze .

Podobieństwo semantyczne

Gdy chcemy dowiedzieć się, które zdania korelują ze sobą w konfiguracji zero-shot (brak przykładów treningowych).

Grafika podobieństwa semantycznego

Podstawowy

Semantyczne podobieństwo - pokazuje, jak korzystać z modułu nadajnika do obliczenia zdanie zdanie podobieństwo.

Wielojęzyczny

Cross-zyczne podobieństwo semantyczne - pokazuje, jak używać jednego z cross-językowych koderów zdanie do obliczenia zdanie podobieństwa w różnych językach.

Wyszukiwanie semantyczne

Wyszukiwanie semantyczne - pokazuje, jak używać Q / zdanie enkoder do indeksu zbiór dokumentów do pobierania na podstawie podobieństwa semantycznego.

Wprowadzanie fragmentu zdania

Semantyczne podobieństwo z uniwersalnego enkodera lite - pokazuje, jak używać modułów kodera zdanie, które akceptują SentencePiece identyfikatory na wejściu zamiast tekstu.

Tworzenie modułu

Zamiast używać tylko moduły na hub.tensorflow.google.cn , istnieją sposoby, aby tworzyć własne moduły. Może to być przydatne narzędzie do lepszej modułowości bazy kodu ML i dalszego udostępniania.

Zawijanie istniejących wstępnie przeszkolonych osadzeń

Tekst moduł osadzania eksporter - narzędzie do zawijania istniejącego uprzednio przeszkolony osadzania w module. Pokazuje, jak dołączyć do modułu operacje wstępnego przetwarzania tekstu. Pozwala to stworzyć moduł osadzania zdań z osadzania tokenów.

Tekst moduł osadzania eksporterem v2 - jak wyżej, ale kompatybilny z TensorFlow 2 i chętny wykonania.