публичный финальный класс ResourceApplyAdagradDa
Обновите '*var' по схеме проксимальной адаграды.
Вложенные классы
| сорт | РесурсАпплиАдаградДа.Параметры | Дополнительные атрибуты для ResourceApplyAdagradDa | |
Константы
| Нить | OP_NAME | Название этой операции, известное основному движку TensorFlow. | 
Публичные методы
| статический <T расширяет TType > ResourceApplyAdagradDa |  create ( Область видимости , Операнд <?> var, Операнд <?> GradientAccumulator, Операнд <?> GradientSquaredAccumulator, Операнд <T> grad, Операнд <T> lr, Операнд <T> l1, Операнд <T> l2, Операнд < TInt64 > globalStep, Параметры... параметры)  Фабричный метод для создания класса, обертывающего новую операцию ResourceApplyAdagradDa. | 
| статический ResourceApplyAdagradDa.Options |  useLocking (логическое значение useLocking)  | 
Унаследованные методы
Константы
общедоступная статическая финальная строка OP_NAME
Название этой операции, известное основному движку TensorFlow.
 Постоянное значение: «ResourceApplyAdagradDA». 
Публичные методы
public static ResourceApplyAdagradDa create ( Область видимости , Операнд <?> var, Операнд <?> градиентАккумулятор, Операнд <? > градиентSquaredAccumulator, Операнд <T> grad, Операнд <T> lr, Операнд <T> l1, Операнд <T> l2, Операнд <TInt64> globalStep, Опции... опции)
Фабричный метод для создания класса, обертывающего новую операцию ResourceApplyAdagradDa.
Параметры
| объем | текущий объем | 
|---|---|
| вар | Должно быть из переменной(). | 
| ГрадиентАккумулятор | Должно быть из переменной(). | 
| ГрадиентКвадратныйАккумулятор | Должно быть из переменной(). | 
| выпускник | Градиент. | 
| лр | Коэффициент масштабирования. Должно быть скаляр. | 
| л1 | Регуляризация L1. Должно быть скаляр. | 
| л2 | Регуляризация L2. Должно быть скаляр. | 
| глобальный шаг | Номер шага обучения. Должно быть скаляр. | 
| параметры | содержит значения необязательных атрибутов | 
Возврат
- новый экземпляр ResourceApplyAdagradDa
общедоступный статический ResourceApplyAdagradDa.Options useLocking (логическое значение useLocking)
Параметры
| использоватьLocking | Если True, обновление тензоров var и accum будет защищено блокировкой; в противном случае поведение не определено, но может вызывать меньше конфликтов. | 
|---|