Załaduj parametry osadzania programu ADAM z obsługą debugowania.
Operacja ładująca parametry optymalizacyjne do HBM w celu osadzenia. Musi być poprzedzony operacją ConfigureTPUEmbeddingHost, która konfiguruje poprawną konfigurację tabeli osadzania. Na przykład ta operacja służy do instalowania parametrów ładowanych z punktu kontrolnego przed wykonaniem pętli szkoleniowej.
Klasy zagnieżdżone
| klasa | ZaładujTPUEmbeddingADAMParametersGradAccumDebug.Options | Opcjonalne atrybuty dla LoadTPUEmbeddingADAMParametersGradAccumDebug | |
Stałe
| Strunowy | OP_NAME | Nazwa tej operacji znana silnikowi rdzenia TensorFlow | 
Metody publiczne
| statyczne LoadTPUEmbeddingADAMParametersGradAccumDebug.Options |  konfiguracja (konfiguracja ciągu) | 
| statyczne LoadTPUEmbeddingADAMParametersGradAccumDebug |  utwórz ( Zakres zasięgu, Operand < TFloat32 > parametry, Operand < TFloat32 > momenta, Operand < TFloat32 > prędkości, Operand < TFloat32 > gradientAccumulators, Long numShards, Long shardId, Opcje... opcje)  Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację LoadTPUEmbeddingADAMParametersGradAccumDebug. | 
| statyczne LoadTPUEmbeddingADAMParametersGradAccumDebug.Options |  tableId (długi identyfikator stołu) | 
| statyczne LoadTPUEmbeddingADAMParametersGradAccumDebug.Options |  nazwa_tabeli (ciąg znaków nazwa_tabeli)  | 
Metody dziedziczone
Stałe
publiczny statyczny końcowy ciąg znaków OP_NAME
Nazwa tej operacji znana silnikowi rdzenia TensorFlow
Metody publiczne
public static LoadTPUEmbeddingADAMParametersGradAccumDebug create ( Zakres zakresu, Operand < TFloat32 > parametry, Operand < TFloat32 > momenta, Operand < TFloat32 > prędkości, Operand < TFloat32 > gradientAccumulators, Long numShards, Long shardId, Opcje... opcje)
Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację LoadTPUEmbeddingADAMParametersGradAccumDebug.
Parametry
| zakres | aktualny zakres | 
|---|---|
| parametry | Wartość parametrów wykorzystywanych w algorytmie optymalizacyjnym programu ADAM. | 
| chwila | Wartość pędu wykorzystywana w algorytmie optymalizacji ADAM. | 
| prędkości | Wartość prędkości wykorzystywana w algorytmie optymalizacji ADAM. | 
| akumulatory gradientowe | Wartość gradient_akumulatorów wykorzystana w algorytmie optymalizacji programu ADAM. | 
| opcje | przenosi opcjonalne wartości atrybutów | 
Zwroty
- nowa instancja LoadTPUEmbeddingADAMParametersGradAccumDebug