org.tensorflow.framework.optimizers
Оптимизируйте свои подборки
Сохраняйте и классифицируйте контент в соответствии со своими настройками.
Классы
| АдаДельта | Оптимизатор, реализующий алгоритм Ададельта. |
| АдаГрад | Оптимизатор, реализующий алгоритм Adagrad. |
| АдаГрадДА | Оптимизатор, реализующий алгоритм двойного усреднения Adagrad. |
| Адам | Оптимизатор, реализующий алгоритм Адама. |
| Адамакс | Оптимизатор, реализующий алгоритм Адамакс. |
| Фтрл | Оптимизатор, реализующий алгоритм FTRL. |
| ГрадиентСпуск | Базовый оптимизатор стохастического градиентного спуска. |
| Импульс | Стохастический градиентный спуск плюс импульс, либо нестеровский, либо традиционный. |
| Надам | Оптимизатор Nadam, реализующий алгоритм NAdam. |
| Оптимизатор | Базовый класс для оптимизаторов градиента. |
| Optimizer.GradAndVar <T расширяет TType > | Класс, который содержит парный градиент и переменную. |
| Оптимизатор.Параметры | Дополнительные атрибуты для Optimizer |
| РМСПроп | Оптимизатор, реализующий алгоритм RMSProp. |
Перечисления
| Оптимизаторы | Перечислитель используется для создания нового оптимизатора с параметрами по умолчанию. |
Если не указано иное, контент на этой странице предоставляется по лицензии Creative Commons "С указанием авторства 4.0", а примеры кода – по лицензии Apache 2.0. Подробнее об этом написано в правилах сайта. Java – это зарегистрированный товарный знак корпорации Oracle и ее аффилированных лиц.
Последнее обновление: 2025-07-26 UTC.
[null,null,["Последнее обновление: 2025-07-26 UTC."],[],[]]