org.tensorflow.framework.optimizers
Organízate con las colecciones
Guarda y clasifica el contenido según tus preferencias.
Clases
| adadelta | Optimizador que implementa el algoritmo Adadelta. |
| adagrad | Optimizador que implementa el algoritmo Adagrad. |
| AdaGradDA | Optimizador que implementa el algoritmo Adagrad Dual-Averaging. |
| Adán | Optimizador que implementa el algoritmo Adam. |
| Adamax | Optimizador que implementa el algoritmo Adamax. |
| Ftrl | Optimizador que implementa el algoritmo FTRL. |
| Descenso de gradiente | Optimizador básico de descenso de gradiente estocástico. |
| Impulso | Descenso de gradiente estocástico más impulso, ya sea nesterov o tradicional. |
| nadam | Nadam Optimizer que implementa el algoritmo NAdam. |
| Optimizador | Clase base para optimizadores de gradiente. |
| Optimizer.GradAndVar <T extiende TType > | Una clase que contiene un gradiente y una variable emparejados. |
| Optimizador.Opciones | Atributos opcionales para Optimizer |
| RMSProp | Optimizador que implementa el algoritmo RMSProp. |
Enumeraciones
| Optimizadores | Enumerador utilizado para crear un nuevo Optimizador con parámetros predeterminados. |
A menos que se indique lo contrario, el contenido de esta página está sujeto a la licencia Reconocimiento 4.0 de Creative Commons y las muestras de código están sujetas a la licencia Apache 2.0. Para obtener más información, consulta las políticas del sitio web de Google Developers. Java es una marca registrada de Oracle o sus afiliados.
Última actualización: 2025-07-26 (UTC).
[null,null,["Última actualización: 2025-07-26 (UTC)."],[],[]]