Zaktualizuj „*var” zgodnie ze schematem adadelta.
accum = rho() * accum + (1 - rho()) * grad.square(); aktualizacja = (update_accum + epsilon).sqrt() * (accum + epsilon()).rsqrt() * grad; update_accum = rho() * update_accum + (1 - rho()) * update.square(); var –= aktualizacja;
Klasy zagnieżdżone
| klasa | ResourceApplyAdadelta.Options | Opcjonalne atrybuty dla ResourceApplyAdadelta | |
Stałe
| Strunowy | OP_NAME | Nazwa tej operacji znana silnikowi rdzenia TensorFlow |
Metody publiczne
| static <T rozszerza TType > ResourceApplyAdadelta | |
| statyczny ResourceApplyAdadelta.Options | useLocking (boolowski useLocking) |
Metody dziedziczone
Stałe
publiczny statyczny końcowy ciąg znaków OP_NAME
Nazwa tej operacji znana silnikowi rdzenia TensorFlow
Metody publiczne
public static ResourceApplyAdadelta create ( Zakres zasięgu , Operand <?> var, Operand <?> accum, Operand <?> accumUpdate, Operand <T> lr, Operand <T> rho, Operand <T> epsilon, Operand <T> grad, Opcje... opcje)
Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację ResourceApplyAdadelta.
Parametry
| zakres | aktualny zakres |
|---|---|
| odm | Powinno pochodzić ze zmiennej (). |
| gromadzić | Powinno pochodzić ze zmiennej (). |
| accumUpdate | Powinno pochodzić ze zmiennej (). |
| lr | Współczynnik skalowania. Musi być skalarem. |
| rho | Czynnik rozpadu. Musi być skalarem. |
| epsilon | Stały czynnik. Musi być skalarem. |
| absolwent | Gradient. |
| opcje | przenosi opcjonalne wartości atrybutów |
Zwroty
- nowa instancja ResourceApplyAdadelta
public static ResourceApplyAdadelta.Options useLocking (boolean useLocking)
Parametry
| użyjBlokowanie | Jeśli True, aktualizacja tensorów var, accum i update_accum będzie chroniona blokadą; w przeciwnym razie zachowanie jest niezdefiniowane, ale może wykazywać mniejszą rywalizację. |
|---|