Pobierz parametry osadzania SGD z obsługą debugowania.
Operacja pobierająca parametry optymalizacyjne z osadzania w pamięci hosta. Musi być poprzedzony operacją ConfigureTPUEmbeddingHost, która konfiguruje poprawną konfigurację tabeli osadzania. Na przykład ta operacja służy do pobierania zaktualizowanych parametrów przed zapisaniem punktu kontrolnego.
Klasy zagnieżdżone
| klasa | PobierzTPUEembeddingStochasticGradientDescentParametersGradAccumDebug.Options | Opcjonalne atrybuty dla RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug | |
Stałe
| Strunowy | OP_NAME | Nazwa tej operacji znana silnikowi rdzenia TensorFlow |
Metody publiczne
| pobieranie statyczneTPUEembeddingStochasticGradientDescentParametersGradAccumDebug.Options | konfiguracja (konfiguracja ciągu) |
| pobieranie statyczneTPUEOsadzanieStochastycznyGradientDescentParametryGradAccumDebug | |
| Dane wyjściowe <TFloat32> | akumulatory gradientowe () Parametr gradient_accumulators zaktualizowany przez algorytm optymalizacji Adadelta. |
| Dane wyjściowe <TFloat32> | parametry () Parametry parametrów aktualizowane przez algorytm optymalizacji stochastycznego gradientu opadania. |
| pobieranie statyczneTPUEembeddingStochasticGradientDescentParametersGradAccumDebug.Options | tableId (długi identyfikator stołu) |
| pobieranie statyczneTPUEembeddingStochasticGradientDescentParametersGradAccumDebug.Options | nazwa_tabeli (ciąg znaków nazwa_tabeli) |
Metody dziedziczone
Stałe
publiczny statyczny końcowy ciąg znaków OP_NAME
Nazwa tej operacji znana silnikowi rdzenia TensorFlow
Metody publiczne
public static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options config (konfiguracja ciągu)
public static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug create ( zakres zakresu , Long numShards, Long shardId, Opcje... opcje)
Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.
Parametry
| zakres | aktualny zakres |
|---|---|
| opcje | przenosi opcjonalne wartości atrybutów |
Zwroty
- nowa instancja RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug
publiczne wyjście < TFloat32 > gradientAccumulators ()
Parametr gradient_accumulators zaktualizowany przez algorytm optymalizacji Adadelta.
publiczne wyjście < TFloat32 > parametry ()
Parametry parametrów aktualizowane przez algorytm optymalizacji stochastycznego gradientu opadania.