Учебные операции
Краткое содержание
Классы | |
---|---|
tensorflow::ops::ApplyAdadelta | Обновите '*var' по схеме adadelta. |
tensorflow::ops::ApplyAdagrad | Обновите *var по схеме adagrad. |
tensorflow::ops::ApplyAdagradDA | Обновите '*var' по схеме проксимальной адаграды. |
tensorflow::ops::ApplyAdam | Обновите «*var» в соответствии с алгоритмом Адама. |
тензорный поток:: ops:: ApplyAddSign | Обновите «*var» в соответствии с обновлением AddSign. |
tensorflow::ops::ApplyCenteredRMSProp | Обновите «*var» в соответствии с центрированным алгоритмом RMSProp. |
тензорный поток::ops::ApplyFtrl | Обновите '*var' по схеме Ftrl-proximal. |
тензорный поток::ops::ApplyFtrlV2 | Обновите '*var' по схеме Ftrl-proximal. |
tensorflow::ops::ApplyGradientDescent | Обновите «*var», вычитая из него «альфа» * «дельта». |
tensorflow::ops::ApplyMomentum | Обновите '*var' в соответствии со схемой импульса. |
тензорный поток:: ops:: ApplyPowerSign | Обновите «*var» в соответствии с обновлением AddSign. |
tensorflow::ops::ApplyProximalAdagrad | Обновите «*var» и «*accum» в соответствии с FOBOS со скоростью обучения Adagrad. |
tensorflow::ops::ApplyProximalGradientDescent | Обновите «*var» как алгоритм FOBOS с фиксированной скоростью обучения. |
тензорный поток:: ops:: ApplyRMSProp | Обновите «*var» в соответствии с алгоритмом RMSProp. |
tensorflow::ops::ResourceApplyAdadelta | Обновите '*var' по схеме adadelta. |
tensorflow::ops::ResourceApplyAdagrad | Обновите *var по схеме adagrad. |
tensorflow::ops::ResourceApplyAdagradDA | Обновите '*var' по схеме проксимальной адаграды. |
tensorflow::ops::ResourceApplyAdam | Обновите «*var» в соответствии с алгоритмом Адама. |
tensorflow::ops::ResourceApplyAdamWithAmsgrad | Обновите «*var» в соответствии с алгоритмом Адама. |
tensorflow::ops::ResourceApplyAddSign | Обновите «*var» в соответствии с обновлением AddSign. |
tensorflow::ops::ResourceApplyCenteredRMSProp | Обновите «*var» в соответствии с центрированным алгоритмом RMSProp. |
tensorflow::ops::ResourceApplyFtrl | Обновите '*var' по схеме Ftrl-proximal. |
tensorflow::ops::ResourceApplyFtrlV2 | Обновите '*var' по схеме Ftrl-proximal. |
tensorflow::ops::ResourceApplyGradientDescent | Обновите «*var», вычитая из него «альфа» * «дельта». |
tensorflow::ops::ResourceApplyKerasMomentum | Обновите '*var' в соответствии со схемой импульса. |
tensorflow::ops::ResourceApplyMomentum | Обновите '*var' в соответствии со схемой импульса. |
tensorflow::ops::ResourceApplyPowerSign | Обновите «*var» в соответствии с обновлением AddSign. |
tensorflow::ops::ResourceApplyProximalAdagrad | Обновите «*var» и «*accum» в соответствии с FOBOS со скоростью обучения Adagrad. |
tensorflow::ops::ResourceApplyProximalGradientDescent | Обновите «*var» как алгоритм FOBOS с фиксированной скоростью обучения. |
tensorflow::ops::ResourceApplyRMSProp | Обновите «*var» в соответствии с алгоритмом RMSProp. |
tensorflow::ops::ResourceSparseApplyAdadelta | var: Должно быть из переменной(). |
tensorflow::ops::ResourceSparseApplyAdagrad | Обновите соответствующие записи в «*var» и «*accum» в соответствии со схемой adagrad. |
tensorflow::ops::ResourceSparseApplyAdagradDA | Обновите записи в '*var' и '*accum' в соответствии с проксимальной адаградной схемой. |
tensorflow::ops::ResourceSparseApplyCenteredRMSProp | Обновите «*var» в соответствии с центрированным алгоритмом RMSProp. |
tensorflow::ops::ResourceSparseApplyFtrl | Обновите соответствующие записи в '*var' по схеме Ftrl-proximal. |
tensorflow::ops::ResourceSparseApplyFtrlV2 | Обновите соответствующие записи в '*var' по схеме Ftrl-proximal. |
tensorflow::ops::ResourceSparseApplyKerasMomentum | Обновите соответствующие записи в «*var» и «*accum» в соответствии со схемой импульса. |
tensorflow::ops::ResourceSparseApplyMomentum | Обновите соответствующие записи в «*var» и «*accum» в соответствии со схемой импульса. |
tensorflow::ops::ResourceSparseApplyProximalAdagrad | Разреженные записи обновления в '*var' и '*accum' в соответствии с алгоритмом FOBOS. |
tensorflow::ops::ResourceSparseApplyProximalGradientDescent | Разреженное обновление '*var' как алгоритма FOBOS с фиксированной скоростью обучения. |
tensorflow::ops::ResourceSparseApplyRMSProp | Обновите «*var» в соответствии с алгоритмом RMSProp. |
tensorflow::ops::SparseApplyAdadelta | var: Должно быть из переменной(). |
tensorflow::ops::SparseApplyAdagrad | Обновите соответствующие записи в «*var» и «*accum» в соответствии со схемой adagrad. |
tensorflow::ops::SparseApplyAdagradDA | Обновите записи в '*var' и '*accum' в соответствии с проксимальной адаградной схемой. |
tensorflow::ops::SparseApplyCenteredRMSProp | Обновите «*var» в соответствии с центрированным алгоритмом RMSProp. |
tensorflow::ops::SparseApplyFtrl | Обновите соответствующие записи в '*var' по схеме Ftrl-proximal. |
tensorflow::ops::SparseApplyFtrlV2 | Обновите соответствующие записи в '*var' по схеме Ftrl-proximal. |
tensorflow::ops::SparseApplyMomentum | Обновите соответствующие записи в «*var» и «*accum» в соответствии со схемой импульса. |
tensorflow::ops::SparseApplyProximalAdagrad | Разреженные записи обновления в '*var' и '*accum' в соответствии с алгоритмом FOBOS. |
tensorflow::ops::SparseApplyProximalGradientDescent | Разреженное обновление '*var' как алгоритма FOBOS с фиксированной скоростью обучения. |
tensorflow::ops::SparseApplyRMSProp | Обновите «*var» в соответствии с алгоритмом RMSProp. |