ResourceSparseApplyAdagradDa

публичный финальный класс ResourceSparseApplyAdagradDa

Обновите записи в '*var' и '*accum' в соответствии с проксимальной адаградной схемой.

Вложенные классы

сорт ResourceSparseApplyAdagradDa.Options Необязательные атрибуты для ResourceSparseApplyAdagradDa

Константы

Нить OP_NAME Название этой операции, известное основному движку TensorFlow.

Публичные методы

static <T расширяет TType > ResourceSparseApplyAdagradDa
create ( Область видимости , Операнд <?> var, Операнд <?> GradientAccumulator, Операнд <?> GradientSquaredAccumulator, Операнд <T> grad, Операнд <? расширяет индексы TNumber >, Операнд <T> lr, Операнд <T> l1, Операнд <T> l2, Операнд <TInt64> globalStep, Опции... опции)
Фабричный метод для создания класса, обертывающего новую операцию ResourceSparseApplyAdagradDa.
статический ResourceSparseApplyAdagradDa.Options
useLocking (логическое значение useLocking)

Унаследованные методы

Константы

общедоступная статическая финальная строка OP_NAME

Название этой операции, известное основному движку TensorFlow.

Постоянное значение: «ResourceSparseApplyAdagradDA».

Публичные методы

public static ResourceSparseApplyAdagradDa create ( Область действия, Операнд <?> var, Операнд <?> градиентАккумулятор, Операнд <?> градиентSquaredAccumulator, Операнд <T> grad, Операнд <? расширяет индексы TNumber >, Операнд <T> lr, Операнд <T> l1, операнд <T> l2, операнд < TInt64 > globalStep, параметры... параметры)

Фабричный метод для создания класса, обертывающего новую операцию ResourceSparseApplyAdagradDa.

Параметры
объем текущий объем
вар Должно быть из переменной().
ГрадиентАккумулятор Должно быть из переменной().
ГрадиентКвадратныйАккумулятор Должно быть из переменной().
выпускник Градиент.
индексы Вектор индексов в первом измерении var и accum.
лр Скорость обучения. Должно быть скаляр.
л1 Регуляризация L1. Должно быть скаляр.
л2 Регуляризация L2. Должно быть скаляр.
глобальный шаг Номер шага обучения. Должно быть скаляр.
параметры содержит значения необязательных атрибутов
Возврат
  • новый экземпляр ResourceSparseApplyAdagradDa

public static ResourceSparseApplyAdagradDa.Options useLocking (логическое значение useLocking)

Параметры
использоватьLocking Если True, обновление тензоров var и accum будет защищено блокировкой; в противном случае поведение не определено, но может вызывать меньше конфликтов.