SGD yerleştirme parametrelerini yükleyin.
Yerleştirme için optimizasyon parametrelerini HBM'ye yükleyen bir işlem. Doğru katıştırma tablosu yapılandırmasını ayarlayan bir ConfigurationTPUEmbeddingHost işlemi öncesinde olmalıdır. Örneğin bu işlem, bir eğitim döngüsü yürütülmeden önce bir kontrol noktasından yüklenen parametreleri yüklemek için kullanılır.
İç İçe Sınıflar
sınıf | LoadTPUEgömmeStochasticGradientDescentParametersGradAccumDebug.Options | LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug için isteğe bağlı özellikler |
Sabitler
Sicim | OP_NAME | Bu operasyonun TensorFlow çekirdek motoru tarafından bilinen adı |
Genel Yöntemler
statik YükTPUEkatıştırmaStochasticGradientDescentParametersGradAccumDebug.Options | yapılandırma (Dize yapılandırması) |
Statik YükTPUEyerleştirmeStochasticGradientDescentParametersGradAccumDebug | |
statik YükTPUEkatıştırmaStochasticGradientDescentParametersGradAccumDebug.Options | tableId (Uzun tabloId) |
statik YükTPUEkatıştırmaStochasticGradientDescentParametersGradAccumDebug.Options | tabloAdı (Dize tabloAdı) |
Kalıtsal Yöntemler
Sabitler
genel statik son Dize OP_NAME
Bu operasyonun TensorFlow çekirdek motoru tarafından bilinen adı
Genel Yöntemler
public static LoadTPUEmbedddingStochasticGradientDescentParametersGradAccumDebug.Options yapılandırması (Dize yapılandırması)
public static LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug create ( Kapsam kapsamı, İşlenen < TFloat32 > parametreler, İşlenen < TFloat32 > degradeAkümülatörler, Uzun numShards, Uzun parçaId, Seçenekler... seçenekler)
Yeni bir LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug işlemini saran bir sınıf oluşturmanın fabrika yöntemi.
Parametreler
kapsam | mevcut kapsam |
---|---|
parametreler | Stokastik gradyan iniş optimizasyon algoritmasında kullanılan parametrelerin değeri. |
gradyanAkümülatörler | Adadelta optimizasyon algoritmasında kullanılan gradyan_biriktiricilerinin değeri. |
seçenekler | isteğe bağlı nitelik değerlerini taşır |
İadeler
- LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug'un yeni bir örneği