публичный финальный класс ResourceApplyAdadelta
Обновите '*var' по схеме adadelta.
accum = rho() * accum + (1 - rho()) * grad.square(); update = (update_accum + epsilon).sqrt() * (accum + epsilon()).rsqrt() * grad; update_accum = rho() * update_accum + (1 - rho()) * update.square(); вар -= обновление;
Вложенные классы
| сорт | ResourceApplyAdadelta.Options | Необязательные атрибуты для ResourceApplyAdadelta | |
Константы
| Нить | OP_NAME | Название этой операции, известное основному движку TensorFlow. |
Публичные методы
| static <T расширяет TType > ResourceApplyAdadelta | |
| статический ResourceApplyAdadelta.Options | useLocking (логическое значение useLocking) |
Унаследованные методы
Константы
общедоступная статическая финальная строка OP_NAME
Название этой операции, известное основному движку TensorFlow.
Постоянное значение: «ResourceApplyAdadelta».
Публичные методы
public static ResourceApplyAdadelta create ( Область действия, Операнд <?> var, Операнд <?> accum, Операнд <?> accumUpdate, Операнд <T> lr, Операнд <T> rho, Операнд <T> эпсилон, Операнд <T> grad, Варианты... варианты)
Фабричный метод для создания класса, обертывающего новую операцию ResourceApplyAdadelta.
Параметры
| объем | текущий объем |
|---|---|
| вар | Должно быть из переменной(). |
| накапливать | Должно быть из переменной(). |
| накапливатьОбновить | Должно быть из переменной(). |
| лр | Коэффициент масштабирования. Должно быть скаляр. |
| ро | Фактор распада. Должно быть скаляр. |
| эпсилон | Постоянный фактор. Должно быть скаляр. |
| выпускник | Градиент. |
| параметры | содержит значения необязательных атрибутов |
Возврат
- новый экземпляр ResourceApplyAdadelta
public static ResourceApplyAdadelta.Options useLocking (логическое значение useLocking)
Параметры
| использоватьLocking | Если True, обновление тензоров var, accum и update_accum будет защищено блокировкой; в противном случае поведение не определено, но может вызывать меньше конфликтов. |
|---|