Разреженное обновление '*var' как алгоритма FOBOS с фиксированной скоростью обучения.
То есть для строк, для которых у нас есть grad, мы обновляем var следующим образом: prox_v = var - Alpha grad var = Sign(prox_v)/(1+alpha l2) max{|prox_v|-alpha l1,0}
Вложенные классы
сорт | ResourceSparseApplyProximalGradientDescent.Options | Дополнительные атрибуты для ResourceSparseApplyProximalGradientDescent |
Константы
Нить | OP_NAME | Название этой операции, известное основному движку TensorFlow. |
Публичные методы
static <T расширяет TType > ResourceSparseApplyProximalGradientDescent | |
статический ResourceSparseApplyProximalGradientDescent.Options | useLocking (логическое значение useLocking) |
Унаследованные методы
Константы
общедоступная статическая финальная строка OP_NAME
Название этой операции, известное основному движку TensorFlow.
Публичные методы
public static ResourceSparseApplyProximalGradientDescent create ( Область действия, Операнд <?> var, Операнд <T> альфа, Операнд <T> l1, Операнд <T> l2, Операнд <T> град, Операнд <? расширяет индексы TNumber >, Параметры... параметры)
Фабричный метод для создания класса, обертывающего новую операцию ResourceSparseApplyProximalGradientDescent.
Параметры
объем | текущий объем |
---|---|
вар | Должно быть из переменной(). |
альфа | Коэффициент масштабирования. Должно быть скаляр. |
л1 | Регуляризация L1. Должно быть скаляр. |
л2 | Регуляризация L2. Должно быть скаляр. |
выпускник | Градиент. |
индексы | Вектор индексов в первом измерении var и accum. |
параметры | содержит значения необязательных атрибутов |
Возврат
- новый экземпляр ResourceSparseApplyProximalGradientDescent
public static ResourceSparseApplyProximalGradientDescent.Options useLocking (логическое значение useLocking)
Параметры
использоватьLocking | Если True, вычитание будет защищено блокировкой; в противном случае поведение не определено, но может вызывать меньше конфликтов. |
---|
Разреженное обновление '*var' как алгоритма FOBOS с фиксированной скоростью обучения.
То есть для строк, для которых у нас есть grad, мы обновляем var следующим образом: prox_v = var - Alpha grad var = Sign(prox_v)/(1+alpha l2) max{|prox_v|-alpha l1,0}
Вложенные классы
сорт | ResourceSparseApplyProximalGradientDescent.Options | Дополнительные атрибуты для ResourceSparseApplyProximalGradientDescent |
Константы
Нить | OP_NAME | Название этой операции, известное основному движку TensorFlow. |
Публичные методы
static <T расширяет TType > ResourceSparseApplyProximalGradientDescent | |
статический ResourceSparseApplyProximalGradientDescent.Options | useLocking (логическое значение useLocking) |
Унаследованные методы
Константы
общедоступная статическая финальная строка OP_NAME
Название этой операции, известное основному движку TensorFlow.
Публичные методы
public static ResourceSparseApplyProximalGradientDescent create ( Область действия, Операнд <?> var, Операнд <T> альфа, Операнд <T> l1, Операнд <T> l2, Операнд <T> град, Операнд <? расширяет индексы TNumber >, Параметры... параметры)
Фабричный метод для создания класса, обертывающего новую операцию ResourceSparseApplyProximalGradientDescent.
Параметры
объем | текущий объем |
---|---|
вар | Должно быть из переменной(). |
альфа | Коэффициент масштабирования. Должно быть скаляр. |
л1 | Регуляризация L1. Должно быть скаляр. |
л2 | Регуляризация L2. Должно быть скаляр. |
выпускник | Градиент. |
индексы | Вектор индексов в первом измерении var и accum. |
параметры | содержит значения необязательных атрибутов |
Возврат
- новый экземпляр ResourceSparseApplyProximalGradientDescent
public static ResourceSparseApplyProximalGradientDescent.Options useLocking (логическое значение useLocking)
Параметры
использоватьLocking | Если True, вычитание будет защищено блокировкой; в противном случае поведение не определено, но может вызывать меньше конфликтов. |
---|