org.tensorflow.framework.optimizers
Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Aulas
| AdaDelta | Otimizador que implementa o algoritmo Adadelta. |
| AdaGrad | Otimizador que implementa o algoritmo Adagrad. |
| AdaGradDA | Otimizador que implementa o algoritmo Adagrad Dual-Averaging. |
| Adão | Otimizador que implementa o algoritmo Adam. |
| Adamax | Otimizador que implementa o algoritmo Adamax. |
| Ftrl | Otimizador que implementa o algoritmo FTRL. |
| Gradiente descendente | Otimizador de descida gradiente estocástico básico. |
| Momento | Descida gradiente estocástica mais impulso, nesterov ou tradicional. |
| Nadam | Nadam Optimizer que implementa o algoritmo NAdam. |
| Otimizador | Classe base para otimizadores de gradiente. |
| Optimizer.GradAndVar <T estende TType > | Uma classe que contém um gradiente e uma variável emparelhados. |
| Otimizador.Opções | Atributos opcionais para Optimizer |
| RMSProp | Otimizador que implementa o algoritmo RMSProp. |
Enums
| Otimizadores | Enumerador usado para criar um novo Otimizador com parâmetros padrão. |
Exceto em caso de indicação contrária, o conteúdo desta página é licenciado de acordo com a Licença de atribuição 4.0 do Creative Commons, e as amostras de código são licenciadas de acordo com a Licença Apache 2.0. Para mais detalhes, consulte as políticas do site do Google Developers. Java é uma marca registrada da Oracle e/ou afiliadas.
Última atualização 2025-07-26 UTC.
[null,null,["Última atualização 2025-07-26 UTC."],[],[]]