Muat parameter penyematan ADAM dengan dukungan debug.
Sebuah operasi yang memuat parameter pengoptimalan ke dalam HBM untuk disematkan. Harus didahului dengan operasi ConfigureTPUEmbeddingHost yang menyiapkan konfigurasi tabel penyematan yang benar. Misalnya, operasi ini digunakan untuk menginstal parameter yang dimuat dari pos pemeriksaan sebelum loop pelatihan dijalankan.
Kelas Bersarang
kelas | LoadTPUEmbeddingADAMParametersGradAccumDebug.Options | Atribut opsional untuk LoadTPUEmbeddingADAMParametersGradAccumDebug |
Konstanta
Rangkaian | OP_NAME | Nama operasi ini dikenal dengan mesin inti TensorFlow |
Metode Publik
LoadTPUEmbeddingADAMParametersGradAccumDebug.Options statis | konfigurasi (Konfigurasi string) |
LoadTPUEmbeddingADAMParametersGradAccumDebug statis | buat ( Lingkup cakupan, parameter Operan < TFloat32 >, Operan < TFloat32 > momen, kecepatan Operan < TFloat32 >, Operan < TFloat32 > gradienAkumulator, Jumlah numShards panjang, shardId panjang, Opsi... opsi) Metode pabrik untuk membuat kelas yang membungkus operasi LoadTPUEmbeddingADAMParametersGradAccumDebug baru. |
LoadTPUEmbeddingADAMParametersGradAccumDebug.Options statis | tableId (Id tabel panjang) |
LoadTPUEmbeddingADAMParametersGradAccumDebug.Options statis | nama meja (String nama tabel) |
Metode Warisan
Konstanta
String akhir statis publik OP_NAME
Nama operasi ini dikenal dengan mesin inti TensorFlow
Metode Publik
LoadTPUEmbeddingADAMParametersGradAccumDebug publik statis membuat ( Lingkup cakupan, parameter Operan < TFloat32 >, Operan < TFloat32 > momen, kecepatan Operan < TFloat32 >, Operan < TFloat32 > gradienAkumulator, Long numShards, Long shardId, Opsi... opsi)
Metode pabrik untuk membuat kelas yang membungkus operasi LoadTPUEmbeddingADAMParametersGradAccumDebug baru.
Parameter
cakupan | ruang lingkup saat ini |
---|---|
parameter | Nilai parameter yang digunakan dalam algoritma optimasi ADAM. |
momentum | Nilai momentum digunakan pada algoritma optimasi ADAM. |
kecepatan | Nilai kecepatan digunakan pada algoritma optimasi ADAM. |
akumulator gradien | Nilai gradien_akumulator yang digunakan dalam algoritma optimasi ADAM. |
pilihan | membawa nilai atribut opsional |
Kembali
- contoh baru LoadTPUEmbeddingADAMParametersGradAccumDebug