훈련 작전
요약
클래스 | |
---|---|
텐서플로우:: ops:: ApplyAdadelta | adadelta 체계에 따라 '*var'를 업데이트합니다. |
텐서플로우:: ops:: ApplyAdagrad | adagrad 체계에 따라 '*var'를 업데이트합니다. |
텐서플로우:: ops:: ApplyAdagradDA | 근위부 adagrad 체계에 따라 '*var'를 업데이트합니다. |
텐서플로우:: ops:: ApplyAdam | Adam 알고리즘에 따라 '*var'를 업데이트합니다. |
텐서플로우:: ops:: ApplyAddSign | AddSign 업데이트에 따라 '*var'를 업데이트합니다. |
텐서플로우:: ops:: ApplyCenteredRMSProp | 중심 RMSProp 알고리즘에 따라 '*var'를 업데이트합니다. |
텐서플로우:: ops:: ApplyFtrl | Ftrl-proximal 체계에 따라 '*var'를 업데이트합니다. |
텐서플로우:: ops:: ApplyFtrlV2 | Ftrl-proximal 체계에 따라 '*var'를 업데이트합니다. |
텐서플로우:: ops:: ApplyGradientDescent | '*var'에서 'alpha' * 'delta'를 빼서 업데이트합니다. |
텐서플로우:: ops:: ApplyMomentum | 모멘텀 체계에 따라 '*var'를 업데이트합니다. |
텐서플로우:: ops:: ApplyPowerSign | AddSign 업데이트에 따라 '*var'를 업데이트합니다. |
텐서플로우:: ops:: ApplyProximalAdagrad | Adagrad 학습률을 사용하여 FOBOS에 따라 '*var' 및 '*accum'을 업데이트합니다. |
텐서플로우:: ops:: ApplyProximalGradientDescent | 고정 학습률을 사용하는 FOBOS 알고리즘으로 '*var'를 업데이트합니다. |
텐서플로우:: ops:: ApplyRMSProp | RMSProp 알고리즘에 따라 '*var'를 업데이트합니다. |
텐서플로우:: ops:: ResourceApplyAdadelta | adadelta 체계에 따라 '*var'를 업데이트합니다. |
텐서플로우:: ops:: ResourceApplyAdagrad | adagrad 체계에 따라 '*var'를 업데이트합니다. |
텐서플로우:: ops:: ResourceApplyAdagradDA | 근위부 adagrad 체계에 따라 '*var'를 업데이트합니다. |
텐서플로우:: ops:: ResourceApplyAdam | Adam 알고리즘에 따라 '*var'를 업데이트합니다. |
텐서플로우:: ops:: ResourceApplyAdamWithAmsgrad | Adam 알고리즘에 따라 '*var'를 업데이트합니다. |
텐서플로우:: ops:: ResourceApplyAddSign | AddSign 업데이트에 따라 '*var'를 업데이트합니다. |
텐서플로우:: ops:: ResourceApplyCenteredRMSProp | 중심 RMSProp 알고리즘에 따라 '*var'를 업데이트합니다. |
텐서플로우:: ops:: ResourceApplyFtrl | Ftrl-proximal 체계에 따라 '*var'를 업데이트합니다. |
텐서플로우:: ops:: ResourceApplyFtrlV2 | Ftrl-proximal 체계에 따라 '*var'를 업데이트합니다. |
텐서플로우:: ops:: ResourceApplyGradientDescent | '*var'에서 'alpha' * 'delta'를 빼서 업데이트합니다. |
텐서플로우:: ops:: ResourceApplyKerasMomentum | 모멘텀 체계에 따라 '*var'를 업데이트합니다. |
텐서플로우:: ops:: ResourceApplyMomentum | 모멘텀 체계에 따라 '*var'를 업데이트합니다. |
텐서플로우:: ops:: ResourceApplyPowerSign | AddSign 업데이트에 따라 '*var'를 업데이트합니다. |
텐서플로우:: ops:: ResourceApplyProximalAdagrad | Adagrad 학습률을 사용하여 FOBOS에 따라 '*var' 및 '*accum'을 업데이트합니다. |
텐서플로우:: ops:: ResourceApplyProximalGradientDescent | 고정 학습률을 사용하는 FOBOS 알고리즘으로 '*var'를 업데이트합니다. |
텐서플로우:: ops:: ResourceApplyRMSProp | RMSProp 알고리즘에 따라 '*var'를 업데이트합니다. |
텐서플로우:: ops:: ResourceSparseApplyAdadelta | var: Variable()에서 가져와야 합니다. |
텐서플로우:: ops:: ResourceSparseApplyAdagrad | adagrad 체계에 따라 '*var' 및 '*accum'의 관련 항목을 업데이트합니다. |
텐서플로우:: ops:: ResourceSparseApplyAdagradDA | 근위부 adagrad 체계에 따라 '*var' 및 '*accum'의 항목을 업데이트합니다. |
텐서플로우:: ops:: ResourceSparseApplyCenteredRMSProp | 중심 RMSProp 알고리즘에 따라 '*var'를 업데이트합니다. |
텐서플로우:: ops:: ResourceSparseApplyFtrl | Ftrl-proximal 체계에 따라 '*var'의 관련 항목을 업데이트합니다. |
텐서플로우:: ops:: ResourceSparseApplyFtrlV2 | Ftrl-proximal 체계에 따라 '*var'의 관련 항목을 업데이트합니다. |
텐서플로우:: ops:: ResourceSparseApplyKerasMomentum | 모멘텀 체계에 따라 '*var' 및 '*accum'의 관련 항목을 업데이트합니다. |
텐서플로우:: ops:: ResourceSparseApplyMomentum | 모멘텀 체계에 따라 '*var' 및 '*accum'의 관련 항목을 업데이트합니다. |
텐서플로우:: ops:: ResourceSparseApplyProximalAdagrad | FOBOS 알고리즘에 따라 '*var' 및 '*accum'의 희소 업데이트 항목입니다. |
텐서플로우:: ops:: ResourceSparseApplyProximalGradientDescent | 학습률이 고정된 FOBOS 알고리즘으로 '*var'를 희소 업데이트합니다. |
텐서플로우:: ops:: ResourceSparseApplyRMSProp | RMSProp 알고리즘에 따라 '*var'를 업데이트합니다. |
텐서플로우:: ops:: SparseApplyAdadelta | var: Variable()에서 가져와야 합니다. |
텐서플로우:: ops:: SparseApplyAdagrad | adagrad 체계에 따라 '*var' 및 '*accum'의 관련 항목을 업데이트합니다. |
텐서플로우:: ops:: SparseApplyAdagradDA | 근위부 adagrad 체계에 따라 '*var' 및 '*accum'의 항목을 업데이트합니다. |
텐서플로우:: ops:: SparseApplyCenteredRMSProp | 중심 RMSProp 알고리즘에 따라 '*var'를 업데이트합니다. |
텐서플로우:: ops:: SparseApplyFtrl | Ftrl-proximal 체계에 따라 '*var'의 관련 항목을 업데이트합니다. |
텐서플로우:: ops:: SparseApplyFtrlV2 | Ftrl-proximal 체계에 따라 '*var'의 관련 항목을 업데이트합니다. |
텐서플로우:: ops:: SparseApplyMomentum | 모멘텀 체계에 따라 '*var' 및 '*accum'의 관련 항목을 업데이트합니다. |
텐서플로우:: ops:: SparseApplyProximalAdagrad | FOBOS 알고리즘에 따라 '*var' 및 '*accum'의 희소 업데이트 항목입니다. |
텐서플로우:: ops:: SparseApplyProximalGradientDescent | 학습률이 고정된 FOBOS 알고리즘으로 '*var'를 희소 업데이트합니다. |
텐서플로우:: ops:: SparseApplyRMSProp | RMSProp 알고리즘에 따라 '*var'를 업데이트합니다. |