тензорный поток:: опс:: Подать заявкуАдаград
#include <training_ops.h>
Обновите *var по схеме adagrad.
Краткое содержание
аккум += град * град вар -= lr * град * (1 / sqrt(аккум))
Аргументы:
- область: объект области.
- var: Должно быть из переменной().
- accum: Должно быть из переменной().
- lr: коэффициент масштабирования. Должно быть скаляр.
- град: Градиент.
Необязательные атрибуты (см. Attrs
):
- use_locking: если
True
, обновление тензоров var и accum будет защищено блокировкой; в противном случае поведение не определено, но может вызывать меньше конфликтов.
Возврат:
-
Output
: То же, что и «var».
Конструкторы и деструкторы | |
---|---|
ApplyAdagrad (const :: | |
ApplyAdagrad (const :: |
Общественные функции | |
---|---|
node () const | ::tensorflow::Node * |
operator:: | |
operator:: |
Публичные статические функции | |
---|---|
UpdateSlots (bool x) | |
UseLocking (bool x) |
Структуры | |
---|---|
tensorflow::ops::ApplyAdagrad::Attrs | Необязательные установщики атрибутов для ApplyAdagrad . |
Публичные атрибуты
операция
Operation operation
вне
::tensorflow::Output out
Общественные функции
Подать заявкуАдаград
ApplyAdagrad(
const ::tensorflow::Scope & scope,
::tensorflow::Input var,
::tensorflow::Input accum,
::tensorflow::Input lr,
::tensorflow::Input grad
)
Подать заявкуАдаград
ApplyAdagrad(
const ::tensorflow::Scope & scope,
::tensorflow::Input var,
::tensorflow::Input accum,
::tensorflow::Input lr,
::tensorflow::Input grad,
const ApplyAdagrad::Attrs & attrs
)