ResourceSparseApplyProximalAdagrad

публичный финальный класс ResourceSparseApplyProximalAdagrad

Разреженные записи обновления в '*var' и '*accum' в соответствии с алгоритмом FOBOS.

То есть для строк, для которых у нас есть grad, мы обновляем var и accum следующим образом: accum += grad grad prox_v = var prox_v -= lr grad (1 / sqrt(accum)) var =sign(prox_v)/(1+lr l2 ) max{|prox_v|-lr l1,0}

Вложенные классы

сорт ResourceSparseApplyProximalAdagrad.Options Дополнительные атрибуты для ResourceSparseApplyProximalAdagrad

Константы

Нить OP_NAME Название этой операции, известное основному движку TensorFlow.

Публичные методы

static <T расширяет TType > ResourceSparseApplyProximalAdagrad
create ( Область видимости , Операнд <?> var, Операнд <?> accum, Операнд <T> lr, Операнд <T> l1, Операнд <T> l2, Операнд <T> grad, Операнд <? расширяет TNumber > индексы, Параметры ... параметры)
Фабричный метод для создания класса, обертывающего новую операцию ResourceSparseApplyProximalAdagrad.
статический ResourceSparseApplyProximalAdagrad.Options
useLocking (логическое значение useLocking)

Унаследованные методы

Константы

общедоступная статическая финальная строка OP_NAME

Название этой операции, известное основному движку TensorFlow.

Постоянное значение: «ResourceSparseApplyProximalAdagrad»

Публичные методы

public static ResourceSparseApplyProximalAdagrad create ( Область действия, Операнд <?> var, Операнд <?> accum, Операнд <T> lr, Операнд <T> l1, Операнд <T> l2, Операнд <T> grad, Операнд <? расширяет TNumber > индексы, Опции... опционы)

Фабричный метод для создания класса, обертывающего новую операцию ResourceSparseApplyProximalAdagrad.

Параметры
объем текущий объем
вар Должно быть из переменной().
накапливать Должно быть из переменной().
лр Скорость обучения. Должно быть скаляр.
л1 Регуляризация L1. Должно быть скаляр.
л2 Регуляризация L2. Должно быть скаляр.
выпускник Градиент.
индексы Вектор индексов в первом измерении var и accum.
параметры содержит значения необязательных атрибутов
Возврат
  • новый экземпляр ResourceSparseApplyProximalAdagrad

общедоступный статический ResourceSparseApplyProximalAdagrad.Options useLocking (логическое значение useLocking)

Параметры
использоватьLocking Если True, обновление тензоров var и accum будет защищено блокировкой; в противном случае поведение не определено, но может вызывать меньше конфликтов.