RetrieveTPUEmbeddingADAMParametersGradAccumDebug

publiczna klasa końcowa RetrieveTPUEmbeddingADAMParametersGradAccumDebug

Pobierz parametry osadzania programu ADAM z obsługą debugowania.

Operacja pobierająca parametry optymalizacyjne z osadzania w pamięci hosta. Musi być poprzedzony operacją ConfigureTPUEmbeddingHost, która konfiguruje poprawną konfigurację tabeli osadzania. Na przykład ta operacja służy do pobierania zaktualizowanych parametrów przed zapisaniem punktu kontrolnego.

Klasy zagnieżdżone

klasa PobierzTPUEmbeddingADAMParametersGradAccumDebug.Options Opcjonalne atrybuty dla RetrieveTPUEmbeddingADAMParametersGradAccumDebug

Stałe

Strunowy OP_NAME Nazwa tej operacji znana silnikowi rdzenia TensorFlow

Metody publiczne

pobieranie statyczneTPUEmbeddingADAMParametersGradAccumDebug.Options
konfiguracja (konfiguracja ciągu)
pobieranie statyczneTPUEembeddingADAMParametryGradAccumDebug
utwórz (zakres zakresu , długie numShards, długie shardId, opcje... opcje)
Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację RetrieveTPUEmbeddingADAMParametersGradAccumDebug.
Dane wyjściowe <TFloat32>
akumulatory gradientowe ()
Parametr gradient_accumulators aktualizowany przez algorytm optymalizacji programu ADAM.
Dane wyjściowe <TFloat32>
moment ()
Moment parametrów aktualizowany przez algorytm optymalizacji ADAM.
Dane wyjściowe <TFloat32>
parametry ()
Parametry parametrów aktualizowane przez algorytm optymalizacji ADAM.
pobieranie statyczneTPUEmbeddingADAMParametersGradAccumDebug.Options
tableId (długi identyfikator stołu)
pobieranie statyczneTPUEmbeddingADAMParametersGradAccumDebug.Options
nazwa_tabeli (ciąg znaków nazwa_tabeli)
Dane wyjściowe <TFloat32>
prędkości ()
Prędkości parametrów aktualizowane przez algorytm optymalizacji ADAM.

Metody dziedziczone

Stałe

publiczny statyczny końcowy ciąg znaków OP_NAME

Nazwa tej operacji znana silnikowi rdzenia TensorFlow

Wartość stała: „RetrieveTPUEmbeddingADAMParametersGradAccumDebug”

Metody publiczne

public static RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options config (konfiguracja ciągu)

public static RetrieveTPUEmbeddingADAMParametersGradAccumDebug create ( zakres zakresu , Long numShards, Long shardId, Opcje... opcje)

Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację RetrieveTPUEmbeddingADAMParametersGradAccumDebug.

Parametry
zakres aktualny zakres
opcje przenosi opcjonalne wartości atrybutów
Zwroty
  • nowa instancja RetrieveTPUEmbeddingADAMParametersGradAccumDebug

publiczne wyjście < TFloat32 > gradientAccumulators ()

Parametr gradient_accumulators aktualizowany przez algorytm optymalizacji programu ADAM.

publiczne wyjście < TFloat32 > moment ()

Moment parametrów aktualizowany przez algorytm optymalizacji ADAM.

publiczne wyjście < TFloat32 > parametry ()

Parametry parametrów aktualizowane przez algorytm optymalizacji ADAM.

public static RetrieveTPUEembeddingADAMParametersGradAccumDebug.Options tableId (Długi identyfikator tabeli)

public static RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options tableName (string tableName)

publiczne wyjście < TFloat32 > prędkości ()

Prędkości parametrów aktualizowane przez algorytm optymalizacji ADAM.