Muat parameter penyematan SGD.
Sebuah operasi yang memuat parameter pengoptimalan ke dalam HBM untuk disematkan. Harus didahului dengan operasi ConfigureTPUEmbeddingHost yang menyiapkan konfigurasi tabel penyematan yang benar. Misalnya, operasi ini digunakan untuk menginstal parameter yang dimuat dari pos pemeriksaan sebelum loop pelatihan dijalankan.
Kelas Bersarang
Konstanta
Rangkaian | OP_NAME | Nama operasi ini dikenal dengan mesin inti TensorFlow |
Metode Publik
Beban statisTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options | konfigurasi (Konfigurasi string) |
Load statisTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug | |
Beban statisTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options | tableId (Id tabel panjang) |
Beban statisTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options | nama meja (String nama tabel) |
Metode Warisan
boolean | sama dengan (Objek arg0) |
Kelas terakhir<?> | dapatkan Kelas () |
ke dalam | Kode hash () |
kekosongan terakhir | memberitahu () |
kekosongan terakhir | beri tahuSemua () |
Rangkaian | keString () |
kekosongan terakhir | tunggu (arg0 panjang, int arg1) |
kekosongan terakhir | tunggu (argumen panjang0) |
kekosongan terakhir | Tunggu () |
Lingkungan Eksekusi abstrak | env () Kembalikan lingkungan eksekusi tempat operasi ini dibuat. |
Operasi abstrak |
Konstanta
String akhir statis publik OP_NAME
Nama operasi ini dikenal dengan mesin inti TensorFlow
Metode Publik
Konfigurasi LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options statis publik (konfigurasi string)
LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug publik statis membuat ( Lingkup cakupan, parameter Operand < TFloat32 >, Operand < TFloat32 > gradienAkumulator, Long numShards, Long shardId, Opsi... opsi)
Metode pabrik untuk membuat kelas yang membungkus operasi LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug baru.
Parameter
cakupan | ruang lingkup saat ini |
---|---|
parameter | Nilai parameter yang digunakan pada algoritma optimasi penurunan gradien stokastik. |
akumulator gradien | Nilai gradien_akumulator yang digunakan dalam algoritma optimasi Adadelta. |
pilihan | membawa nilai atribut opsional |
Kembali
- contoh baru LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug