org.tensorflow.framework.optimizers
Zajęcia
AdaDelta | Optymalizator implementujący algorytm Adadelta. |
AdaGrad | Optymalizator implementujący algorytm Adagrad. |
AdaGradDA | Optymalizator implementujący algorytm Adagrad Dual-Averaging. |
Adama | Optymalizator implementujący algorytm Adama. |
Adamax | Optymalizator implementujący algorytm Adamax. |
Ftrl | Optymalizator implementujący algorytm FTRL. |
Zejście gradientowe | Podstawowy optymalizator gradientu stochastycznego. |
Pęd | Zejście w gradiencie stochastycznym plus pęd, Nesterov lub tradycyjny. |
Nadam | Nadam Optimizer, który implementuje algorytm NAdam. |
Optymalizator | Klasa bazowa dla optymalizatorów gradientu. |
Optimizer.GradAndVar <T rozszerza TType > | Klasa przechowująca sparowany gradient i zmienną. |
Optymalizator.Opcje | Opcjonalne atrybuty Optimizer |
RMSProp | Optymalizator implementujący algorytm RMSProp. |
Wyliczenia
Optymalizatory | Moduł wyliczający używany do tworzenia nowego optymalizatora z parametrami domyślnymi. |
O ile nie stwierdzono inaczej, treść tej strony jest objęta licencją Creative Commons – uznanie autorstwa 4.0, a fragmenty kodu są dostępne na licencji Apache 2.0. Szczegółowe informacje na ten temat zawierają zasady dotyczące witryny Google Developers. Java jest zastrzeżonym znakiem towarowym firmy Oracle i jej podmiotów stowarzyszonych.
Ostatnia aktualizacja: 2024-10-31 UTC.
[null,null,["Ostatnia aktualizacja: 2024-10-31 UTC."],[],[]]