Учебные операции

Краткое содержание

Классы

tensorflow::ops::ApplyAdadelta

Обновите '*var' по схеме adadelta.

tensorflow::ops::ApplyAdagrad

Обновите *var по схеме adagrad.

tensorflow::ops::ApplyAdagradDA

Обновите '*var' по схеме проксимальной адаграды.

tensorflow::ops::ApplyAdam

Обновите «*var» в соответствии с алгоритмом Адама.

тензорный поток:: ops:: ApplyAddSign

Обновите «*var» в соответствии с обновлением AddSign.

tensorflow::ops::ApplyCenteredRMSProp

Обновите «*var» в соответствии с центрированным алгоритмом RMSProp.

тензорный поток::ops::ApplyFtrl

Обновите '*var' по схеме Ftrl-proximal.

тензорный поток::ops::ApplyFtrlV2

Обновите '*var' по схеме Ftrl-proximal.

tensorflow::ops::ApplyGradientDescent

Обновите «*var», вычитая из него «альфа» * «дельта».

tensorflow::ops::ApplyMomentum

Обновите '*var' в соответствии со схемой импульса.

тензорный поток:: ops:: ApplyPowerSign

Обновите «*var» в соответствии с обновлением AddSign.

tensorflow::ops::ApplyProximalAdagrad

Обновите «*var» и «*accum» в соответствии с FOBOS со скоростью обучения Adagrad.

tensorflow::ops::ApplyProximalGradientDescent

Обновите «*var» как алгоритм FOBOS с фиксированной скоростью обучения.

тензорный поток:: ops:: ApplyRMSProp

Обновите «*var» в соответствии с алгоритмом RMSProp.

tensorflow::ops::ResourceApplyAdadelta

Обновите '*var' по схеме adadelta.

tensorflow::ops::ResourceApplyAdagrad

Обновите *var по схеме adagrad.

tensorflow::ops::ResourceApplyAdagradDA

Обновите '*var' по схеме проксимальной адаграды.

tensorflow::ops::ResourceApplyAdam

Обновите «*var» в соответствии с алгоритмом Адама.

tensorflow::ops::ResourceApplyAdamWithAmsgrad

Обновите «*var» в соответствии с алгоритмом Адама.

tensorflow::ops::ResourceApplyAddSign

Обновите «*var» в соответствии с обновлением AddSign.

tensorflow::ops::ResourceApplyCenteredRMSProp

Обновите «*var» в соответствии с центрированным алгоритмом RMSProp.

tensorflow::ops::ResourceApplyFtrl

Обновите '*var' по схеме Ftrl-proximal.

tensorflow::ops::ResourceApplyFtrlV2

Обновите '*var' по схеме Ftrl-proximal.

tensorflow::ops::ResourceApplyGradientDescent

Обновите «*var», вычитая из него «альфа» * «дельта».

tensorflow::ops::ResourceApplyKerasMomentum

Обновите '*var' в соответствии со схемой импульса.

tensorflow::ops::ResourceApplyMomentum

Обновите '*var' в соответствии со схемой импульса.

tensorflow::ops::ResourceApplyPowerSign

Обновите «*var» в соответствии с обновлением AddSign.

tensorflow::ops::ResourceApplyProximalAdagrad

Обновите «*var» и «*accum» в соответствии с FOBOS со скоростью обучения Adagrad.

tensorflow::ops::ResourceApplyProximalGradientDescent

Обновите «*var» как алгоритм FOBOS с фиксированной скоростью обучения.

tensorflow::ops::ResourceApplyRMSProp

Обновите «*var» в соответствии с алгоритмом RMSProp.

tensorflow::ops::ResourceSparseApplyAdadelta

var: Должно быть из переменной().

tensorflow::ops::ResourceSparseApplyAdagrad

Обновите соответствующие записи в «*var» и «*accum» в соответствии со схемой adagrad.

tensorflow::ops::ResourceSparseApplyAdagradDA

Обновите записи в '*var' и '*accum' в соответствии с проксимальной адаградной схемой.

tensorflow::ops::ResourceSparseApplyCenteredRMSProp

Обновите «*var» в соответствии с центрированным алгоритмом RMSProp.

tensorflow::ops::ResourceSparseApplyFtrl

Обновите соответствующие записи в '*var' по схеме Ftrl-proximal.

tensorflow::ops::ResourceSparseApplyFtrlV2

Обновите соответствующие записи в '*var' по схеме Ftrl-proximal.

tensorflow::ops::ResourceSparseApplyKerasMomentum

Обновите соответствующие записи в «*var» и «*accum» в соответствии со схемой импульса.

tensorflow::ops::ResourceSparseApplyMomentum

Обновите соответствующие записи в «*var» и «*accum» в соответствии со схемой импульса.

tensorflow::ops::ResourceSparseApplyProximalAdagrad

Разреженные записи обновления в '*var' и '*accum' в соответствии с алгоритмом FOBOS.

tensorflow::ops::ResourceSparseApplyProximalGradientDescent

Разреженное обновление '*var' как алгоритма FOBOS с фиксированной скоростью обучения.

tensorflow::ops::ResourceSparseApplyRMSProp

Обновите «*var» в соответствии с алгоритмом RMSProp.

tensorflow::ops::SparseApplyAdadelta

var: Должно быть из переменной().

tensorflow::ops::SparseApplyAdagrad

Обновите соответствующие записи в «*var» и «*accum» в соответствии со схемой adagrad.

tensorflow::ops::SparseApplyAdagradDA

Обновите записи в '*var' и '*accum' в соответствии с проксимальной адаградной схемой.

tensorflow::ops::SparseApplyCenteredRMSProp

Обновите «*var» в соответствии с центрированным алгоритмом RMSProp.

tensorflow::ops::SparseApplyFtrl

Обновите соответствующие записи в '*var' по схеме Ftrl-proximal.

tensorflow::ops::SparseApplyFtrlV2

Обновите соответствующие записи в '*var' по схеме Ftrl-proximal.

tensorflow::ops::SparseApplyMomentum

Обновите соответствующие записи в «*var» и «*accum» в соответствии со схемой импульса.

tensorflow::ops::SparseApplyProximalAdagrad

Разреженные записи обновления в '*var' и '*accum' в соответствии с алгоритмом FOBOS.

tensorflow::ops::SparseApplyProximalGradientDescent

Разреженное обновление '*var' как алгоритма FOBOS с фиксированной скоростью обучения.

tensorflow::ops::SparseApplyRMSProp

Обновите «*var» в соответствии с алгоритмом RMSProp.