ApplyAdadelta

публичный финальный класс ApplyAdadelta

Обновите '*var' по схеме adadelta.

accum = rho() * accum + (1 - rho()) * grad.square(); update = (update_accum + epsilon).sqrt() * (accum + epsilon()).rsqrt() * grad; update_accum = rho() * update_accum + (1 - rho()) * update.square(); вар -= обновление;

Вложенные классы

сорт ПрименитьАдадельта.Параметры Дополнительные атрибуты для ApplyAdadelta

Константы

Нить OP_NAME Название этой операции, известное основному движку TensorFlow.

Публичные методы

Выход <Т>
какВывод ()
Возвращает символический дескриптор тензора.
static <T расширяет TType > ApplyAdadelta <T>
create ( Область видимости , Операнд <T> var, Операнд <T> accum, Операнд <T> accumUpdate, Операнд <T> lr, Операнд <T> rho, Операнд <T> эпсилон, Операнд <T> град, Параметры.. . параметры)
Фабричный метод для создания класса, обертывающего новую операцию ApplyAdadelta.
Выход <Т>
вне ()
То же, что «вар».
статический ApplyAdadelta.Options
useLocking (логическое значение useLocking)

Унаследованные методы

Константы

общедоступная статическая финальная строка OP_NAME

Название этой операции, известное основному движку TensorFlow.

Постоянное значение: «ПрименитьАдадельта».

Публичные методы

публичный вывод <T> asOutput ()

Возвращает символический дескриптор тензора.

Входные данные для операций TensorFlow являются выходными данными другой операции TensorFlow. Этот метод используется для получения символического дескриптора, который представляет собой вычисление входных данных.

public static ApplyAdadelta <T> create ( Область действия, Операнд <T> var, Операнд <T> accum, Операнд <T> accumUpdate, Операнд <T> lr, Операнд <T> rho, Операнд <T> эпсилон, Операнд <T > град, варианты... варианты)

Фабричный метод для создания класса, обертывающего новую операцию ApplyAdadelta.

Параметры
объем текущий объем
вар Должно быть из переменной().
накапливать Должно быть из переменной().
накапливатьОбновить Должно быть из переменной().
лр Коэффициент масштабирования. Должно быть скаляр.
ро Фактор распада. Должно быть скаляр.
эпсилон Постоянный фактор. Должно быть скаляр.
выпускник Градиент.
параметры содержит значения необязательных атрибутов
Возврат
  • новый экземпляр ApplyAdadelta

публичный вывод <T> out ()

То же, что «вар».

public static ApplyAdadelta.Options useLocking (логическое значение useLocking)

Параметры
использоватьLocking Если True, обновление тензоров var, accum и update_accum будет защищено блокировкой; в противном случае поведение не определено, но может вызывать меньше конфликтов.