Оптимизируйте свои подборки
Сохраняйте и классифицируйте контент в соответствии со своими настройками.
тензорный поток:: опс:: Подать заявкуАдаград
#include <training_ops.h>
Обновите *var по схеме adagrad.
Краткое содержание
аккум += град * град вар -= lr * град * (1 / sqrt(аккум))
Аргументы:
- область: объект области.
- var: Должно быть из переменной().
- accum: Должно быть из переменной().
- lr: Коэффициент масштабирования. Должно быть скаляр.
- град: Градиент.
Необязательные атрибуты (см. Attrs
):
- use_locking: если
True
, обновление тензоров var и accum будет защищено блокировкой; в противном случае поведение не определено, но может вызывать меньше конфликтов.
Возврат:
Публичные атрибуты
Общественные функции
узел
::tensorflow::Node * node() const
operator::tensorflow::Input() const
оператор::tensorflow::Выход
operator::tensorflow::Output() const
Публичные статические функции
ОбновитьСлоты
Attrs UpdateSlots(
bool x
)
Использование блокировки
Attrs UseLocking(
bool x
)
Если не указано иное, контент на этой странице предоставляется по лицензии Creative Commons "С указанием авторства 4.0", а примеры кода – по лицензии Apache 2.0. Подробнее об этом написано в правилах сайта. Java – это зарегистрированный товарный знак корпорации Oracle и ее аффилированных лиц.
Последнее обновление: 2025-07-27 UTC.
[null,null,["Последнее обновление: 2025-07-27 UTC."],[],[],null,["# tensorflow::ops::ApplyAdagrad Class Reference\n\ntensorflow::ops::ApplyAdagrad\n=============================\n\n`#include \u003ctraining_ops.h\u003e`\n\nUpdate '\\*var' according to the adagrad scheme.\n\nSummary\n-------\n\naccum += grad \\* grad var -= lr \\* grad \\* (1 / sqrt(accum))\n\nArguments:\n\n- scope: A [Scope](/versions/r2.3/api_docs/cc/class/tensorflow/scope#classtensorflow_1_1_scope) object\n- var: Should be from a Variable().\n- accum: Should be from a Variable().\n- lr: Scaling factor. Must be a scalar.\n- grad: The gradient.\n\n\u003cbr /\u003e\n\nOptional attributes (see [Attrs](/versions/r2.3/api_docs/cc/struct/tensorflow/ops/apply-adagrad/attrs#structtensorflow_1_1ops_1_1_apply_adagrad_1_1_attrs)):\n\n- use_locking: If `True`, updating of the var and accum tensors will be protected by a lock; otherwise the behavior is undefined, but may exhibit less contention.\n\n\u003cbr /\u003e\n\nReturns:\n\n- [Output](/versions/r2.3/api_docs/cc/class/tensorflow/output#classtensorflow_1_1_output): Same as \"var\".\n\n\u003cbr /\u003e\n\n| ### Constructors and Destructors ||\n|---|---|\n| [ApplyAdagrad](#classtensorflow_1_1ops_1_1_apply_adagrad_1a119cb4675749a5746ce8598f8793a671)`(const ::`[tensorflow::Scope](/versions/r2.3/api_docs/cc/class/tensorflow/scope#classtensorflow_1_1_scope)` & scope, ::`[tensorflow::Input](/versions/r2.3/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` var, ::`[tensorflow::Input](/versions/r2.3/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` accum, ::`[tensorflow::Input](/versions/r2.3/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` lr, ::`[tensorflow::Input](/versions/r2.3/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` grad)` ||\n| [ApplyAdagrad](#classtensorflow_1_1ops_1_1_apply_adagrad_1a251be3569dad2f58e5820e423d32f28c)`(const ::`[tensorflow::Scope](/versions/r2.3/api_docs/cc/class/tensorflow/scope#classtensorflow_1_1_scope)` & scope, ::`[tensorflow::Input](/versions/r2.3/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` var, ::`[tensorflow::Input](/versions/r2.3/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` accum, ::`[tensorflow::Input](/versions/r2.3/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` lr, ::`[tensorflow::Input](/versions/r2.3/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` grad, const `[ApplyAdagrad::Attrs](/versions/r2.3/api_docs/cc/struct/tensorflow/ops/apply-adagrad/attrs#structtensorflow_1_1ops_1_1_apply_adagrad_1_1_attrs)` & attrs)` ||\n\n| ### Public attributes ||\n|-------------------------------------------------------------------------------------------|---------------------------------------------------------------------------------------------------------|\n| [operation](#classtensorflow_1_1ops_1_1_apply_adagrad_1a7e34dfd358db60a1c864ec24b278de1e) | [Operation](/versions/r2.3/api_docs/cc/class/tensorflow/operation#classtensorflow_1_1_operation) |\n| [out](#classtensorflow_1_1ops_1_1_apply_adagrad_1a3fe05f28ae9aa48b8351a53fc562e03d) | `::`[tensorflow::Output](/versions/r2.3/api_docs/cc/class/tensorflow/output#classtensorflow_1_1_output) |\n\n| ### Public functions ||\n|-------------------------------------------------------------------------------------------------------------------------|------------------------|\n| [node](#classtensorflow_1_1ops_1_1_apply_adagrad_1ac3e8e9b94978a64092adee8ae4836249)`() const ` | `::tensorflow::Node *` |\n| [operator::tensorflow::Input](#classtensorflow_1_1ops_1_1_apply_adagrad_1a881551beab3939a976b1a859acc77e89)`() const ` | ` ` ` ` |\n| [operator::tensorflow::Output](#classtensorflow_1_1ops_1_1_apply_adagrad_1a97a0d1b59f2d6bf45ed2281809bfba96)`() const ` | ` ` ` ` |\n\n| ### Public static functions ||\n|-------------------------------------------------------------------------------------------------------|-----------------------------------------------------------------------------------------------------------------------------------|\n| [UpdateSlots](#classtensorflow_1_1ops_1_1_apply_adagrad_1aebe5e4875477a6e8f3634d4c5c33dba0)`(bool x)` | [Attrs](/versions/r2.3/api_docs/cc/struct/tensorflow/ops/apply-adagrad/attrs#structtensorflow_1_1ops_1_1_apply_adagrad_1_1_attrs) |\n| [UseLocking](#classtensorflow_1_1ops_1_1_apply_adagrad_1a412d43f4d6cbb6c10d0e49edf9f256f2)`(bool x)` | [Attrs](/versions/r2.3/api_docs/cc/struct/tensorflow/ops/apply-adagrad/attrs#structtensorflow_1_1ops_1_1_apply_adagrad_1_1_attrs) |\n\n| ### Structs ||\n|--------------------------------------------------------------------------------------------------------------|--------------------------------------------------------------------------------------------------------------------------------------------------------|\n| [tensorflow::ops::ApplyAdagrad::Attrs](/versions/r2.3/api_docs/cc/struct/tensorflow/ops/apply-adagrad/attrs) | Optional attribute setters for [ApplyAdagrad](/versions/r2.3/api_docs/cc/class/tensorflow/ops/apply-adagrad#classtensorflow_1_1ops_1_1_apply_adagrad). |\n\nPublic attributes\n-----------------\n\n### operation\n\n```text\nOperation operation\n``` \n\n### out\n\n```text\n::tensorflow::Output out\n``` \n\nPublic functions\n----------------\n\n### ApplyAdagrad\n\n```gdscript\n ApplyAdagrad(\n const ::tensorflow::Scope & scope,\n ::tensorflow::Input var,\n ::tensorflow::Input accum,\n ::tensorflow::Input lr,\n ::tensorflow::Input grad\n)\n``` \n\n### ApplyAdagrad\n\n```gdscript\n ApplyAdagrad(\n const ::tensorflow::Scope & scope,\n ::tensorflow::Input var,\n ::tensorflow::Input accum,\n ::tensorflow::Input lr,\n ::tensorflow::Input grad,\n const ApplyAdagrad::Attrs & attrs\n)\n``` \n\n### node\n\n```gdscript\n::tensorflow::Node * node() const \n``` \n\n### operator::tensorflow::Input\n\n```gdscript\n operator::tensorflow::Input() const \n``` \n\n### operator::tensorflow::Output\n\n```gdscript\n operator::tensorflow::Output() const \n``` \n\nPublic static functions\n-----------------------\n\n### UpdateSlots\n\n```text\nAttrs UpdateSlots(\n bool x\n)\n``` \n\n### UseLocking\n\n```text\nAttrs UseLocking(\n bool x\n)\n```"]]