ApplyAdagradDa

публичный финальный класс ApplyAdagradDa

Обновите '*var' по схеме проксимальной адаграды.

Вложенные классы

сорт ПрименитьAdagradDa.Options Дополнительные атрибуты для ApplyAdagradDa

Константы

Нить OP_NAME Название этой операции, известное основному движку TensorFlow.

Публичные методы

Выход <Т>
какВывод ()
Возвращает символический дескриптор тензора.
статический <T расширяет TType > ApplyAdagradDa <T>
create ( Область видимости , Операнд <T> var, Операнд <T> GradientAccumulator, Операнд <T> GradientSquaredAccumulator, Операнд <T> grad, Операнд <T> lr, Операнд <T> l1, Операнд <T> l2, Операнд < TInt64 > globalStep, Параметры... параметры)
Фабричный метод для создания класса, обертывающего новую операцию ApplyAdagradDa.
Выход <Т>
вне ()
То же, что «вар».
статический ApplyAdagradDa.Options
useLocking (логическое значение useLocking)

Унаследованные методы

Константы

общедоступная статическая финальная строка OP_NAME

Название этой операции, известное основному движку TensorFlow.

Постоянное значение: «ПрименитьАдаградДА».

Публичные методы

публичный вывод <T> asOutput ()

Возвращает символический дескриптор тензора.

Входные данные для операций TensorFlow являются выходными данными другой операции TensorFlow. Этот метод используется для получения символического дескриптора, который представляет собой вычисление входных данных.

public static ApplyAdagradDa <T> create ( Область видимости, Операнд <T> var, Операнд <T> градиентАккумулятор, Операнд <T> градиентSquaredAccumulator, Операнд <T> град, Операнд <T> lr, Операнд <T> l1, Операнд <T > l2, операнд < TInt64 > globalStep, параметры... параметры)

Фабричный метод для создания класса, обертывающего новую операцию ApplyAdagradDa.

Параметры
объем текущий объем
вар Должно быть из переменной().
ГрадиентАккумулятор Должно быть из переменной().
ГрадиентКвадратныйАккумулятор Должно быть из переменной().
выпускник Градиент.
лр Коэффициент масштабирования. Должно быть скаляр.
л1 Регуляризация L1. Должно быть скаляр.
л2 Регуляризация L2. Должно быть скаляр.
глобальный шаг Номер шага обучения. Должно быть скаляр.
параметры содержит значения необязательных атрибутов
Возврат
  • новый экземпляр ApplyAdagradDa

публичный вывод <T> out ()

То же, что «вар».

public static ApplyAdagradDa.Options useLocking (логическое значение useLocking)

Параметры
использоватьLocking Если True, обновление тензоров var и accum будет защищено блокировкой; в противном случае поведение не определено, но может вызывать меньше конфликтов.