ปฏิบัติการฝึกอบรม

สรุป

ชั้นเรียน

เทนเซอร์โฟลว์ :: ops :: ApplyAdadelta

อัปเดต '*var' ตามรูปแบบ adadelta

เทนเซอร์โฟลว์ :: ops :: ApplyAdagrad

อัปเดต '*var' ตามรูปแบบ adagrad

เทนเซอร์โฟลว์:: ops:: ApplyAdagradDA

อัปเดต '*var' ตามรูปแบบ adagrad ที่ใกล้เคียง

เทนเซอร์โฟลว์ :: ops :: ApplyAdam

อัปเดต '*var' ตามอัลกอริทึมของ Adam

เทนเซอร์โฟลว์:: ops:: ApplyAddSign

อัปเดต '*var' ตามการอัปเดต AddSign

เทนเซอร์โฟลว์ :: ops :: ApplyCenteredRMSProp

อัปเดต '*var' ตามอัลกอริทึม RMSProp ที่อยู่กึ่งกลาง

เทนเซอร์โฟลว์ :: ops :: ApplyFtrl

อัปเดต '*var' ตามรูปแบบ Ftrl-proximal

เทนเซอร์โฟลว์ :: ops :: ApplyFtrlV2

อัปเดต '*var' ตามรูปแบบ Ftrl-proximal

เทนเซอร์โฟลว์ :: ops :: ApplyGradientDescent

อัปเดต '*var' โดยลบ 'alpha' * 'delta' ออกจากมัน

เทนเซอร์โฟลว์ :: ops :: ใช้โมเมนตัม

อัปเดต '*var' ตามรูปแบบโมเมนตัม

เทนเซอร์โฟลว์ :: ops :: ApplyPowerSign

อัปเดต '*var' ตามการอัปเดต AddSign

เทนเซอร์โฟลว์ :: ops :: ApplyProximalAdagrad

อัปเดต '*var' และ '*accum' ตาม FOBOS ด้วยอัตราการเรียนรู้ของ Adagrad

เทนเซอร์โฟลว์ :: ops :: ApplyProximalGradientDescent

อัปเดต '*var' เป็นอัลกอริทึม FOBOS ด้วยอัตราการเรียนรู้คงที่

เทนเซอร์โฟลว์ :: ops :: ApplyRMSProp

อัปเดต '*var' ตามอัลกอริทึม RMSProp

เทนเซอร์โฟลว์ :: ops :: ResourceApplyAdadelta

อัปเดต '*var' ตามรูปแบบ adadelta

เทนเซอร์โฟลว์ :: ops :: ResourceApplyAdagrad

อัปเดต '*var' ตามรูปแบบ adagrad

เทนเซอร์โฟลว์ :: ops :: ResourceApplyAdagradDA

อัปเดต '*var' ตามรูปแบบ adagrad ที่ใกล้เคียง

เทนเซอร์โฟลว์ :: ops :: ResourceApplyAdam

อัปเดต '*var' ตามอัลกอริทึมของ Adam

เทนเซอร์โฟลว์ :: ops :: ResourceApplyAdamWithAmsgrad

อัปเดต '*var' ตามอัลกอริทึมของ Adam

เทนเซอร์โฟลว์ :: ops :: ResourceApplyAddSign

อัปเดต '*var' ตามการอัปเดต AddSign

เทนเซอร์โฟลว์ :: ops :: ResourceApplyCenteredRMSProp

อัปเดต '*var' ตามอัลกอริทึม RMSProp ที่อยู่กึ่งกลาง

เทนเซอร์โฟลว์ :: ops :: ResourceApplyFtrl

อัปเดต '*var' ตามรูปแบบ Ftrl-proximal

เทนเซอร์โฟลว์ :: ops :: ResourceApplyFtrlV2

อัปเดต '*var' ตามรูปแบบ Ftrl-proximal

เทนเซอร์โฟลว์ :: ops :: ResourceApplyGradientDescent

อัปเดต '*var' โดยลบ 'alpha' * 'delta' ออกจากมัน

เทนเซอร์โฟลว์ :: ops :: ResourceApplyKerasMomentum

อัปเดต '*var' ตามรูปแบบโมเมนตัม

เทนเซอร์โฟลว์ :: ops :: ResourceApplyMomentum

อัปเดต '*var' ตามรูปแบบโมเมนตัม

เทนเซอร์โฟลว์ :: ops :: ResourceApplyPowerSign

อัปเดต '*var' ตามการอัปเดต AddSign

เทนเซอร์โฟลว์ :: ops :: ResourceApplyProximalAdagrad

อัปเดต '*var' และ '*accum' ตาม FOBOS ด้วยอัตราการเรียนรู้ของ Adagrad

เทนเซอร์โฟลว์ :: ops :: ResourceApplyProximalGradientDescent

อัปเดต '*var' เป็นอัลกอริทึม FOBOS ด้วยอัตราการเรียนรู้คงที่

เทนเซอร์โฟลว์ :: ops :: ResourceApplyRMSProp

อัปเดต '*var' ตามอัลกอริทึม RMSProp

เทนเซอร์โฟลว์ :: ops :: ResourceSparseApplyAdadelta

var: ควรมาจากตัวแปร ()

เทนเซอร์โฟลว์ :: ops :: ResourceSparseApplyAdagrad

อัปเดตรายการที่เกี่ยวข้องใน '*var' และ '*accum' ตามรูปแบบ adagrad

เทนเซอร์โฟลว์ :: ops :: ResourceSparseApplyAdagradDA

อัปเดตรายการใน '*var' และ '*accum' ตามรูปแบบ adagrad ที่ใกล้เคียง

เทนเซอร์โฟลว์ :: ops :: ResourceSparseApplyCenteredRMSProp

อัปเดต '*var' ตามอัลกอริทึม RMSProp ที่อยู่กึ่งกลาง

เทนเซอร์โฟลว์ :: ops :: ResourceSparseApplyFtrl

อัปเดตรายการที่เกี่ยวข้องใน '*var' ตามรูปแบบ Ftrl-proximal

เทนเซอร์โฟลว์:: ops:: ResourceSparseApplyFtrlV2

อัปเดตรายการที่เกี่ยวข้องใน '*var' ตามรูปแบบ Ftrl-proximal

เทนเซอร์โฟลว์ :: ops :: ResourceSparseApplyKerasMomentum

อัปเดตรายการที่เกี่ยวข้องใน '*var' และ '*accum' ตามรูปแบบโมเมนตัม

เทนเซอร์โฟลว์ :: ops :: ResourceSparseApplyMomentum

อัปเดตรายการที่เกี่ยวข้องใน '*var' และ '*accum' ตามรูปแบบโมเมนตัม

เทนเซอร์โฟลว์ :: ops :: ResourceSparseApplyProximalAdagrad

รายการอัปเดตแบบกระจัดกระจายใน '*var' และ '*accum' ตามอัลกอริทึม FOBOS

เทนเซอร์โฟลว์ :: ops :: ResourceSparseApplyProximalGradientDescent

การอัปเดตแบบกระจัดกระจาย '*var' เป็นอัลกอริทึม FOBOS พร้อมอัตราการเรียนรู้คงที่

เทนเซอร์โฟลว์ :: ops :: ResourceSparseApplyRMSProp

อัปเดต '*var' ตามอัลกอริทึม RMSProp

เทนเซอร์โฟลว์ :: ops :: SparseApplyAdadelta

var: ควรมาจากตัวแปร ()

เทนเซอร์โฟลว์ :: ops :: SparseApplyAdagrad

อัปเดตรายการที่เกี่ยวข้องใน '*var' และ '*accum' ตามรูปแบบ adagrad

เทนเซอร์โฟลว์:: ops:: SparseApplyAdagradDA

อัปเดตรายการใน '*var' และ '*accum' ตามรูปแบบ adagrad ที่ใกล้เคียง

เทนเซอร์โฟลว์ :: ops :: SparseApplyCenteredRMSProp

อัปเดต '*var' ตามอัลกอริทึม RMSProp ที่อยู่กึ่งกลาง

เทนเซอร์โฟลว์ :: ops :: SparseApplyFtrl

อัปเดตรายการที่เกี่ยวข้องใน '*var' ตามรูปแบบ Ftrl-proximal

เทนเซอร์โฟลว์:: ops:: SparseApplyFtrlV2

อัปเดตรายการที่เกี่ยวข้องใน '*var' ตามรูปแบบ Ftrl-proximal

เทนเซอร์โฟลว์ :: ops :: SparseApplyMomentum

อัปเดตรายการที่เกี่ยวข้องใน '*var' และ '*accum' ตามรูปแบบโมเมนตัม

เทนเซอร์โฟลว์:: ops:: SparseApplyProximalAdagrad

รายการอัปเดตแบบกระจัดกระจายใน '*var' และ '*accum' ตามอัลกอริทึม FOBOS

เทนเซอร์โฟลว์ :: ops :: SparseApplyProximalGradientDescent

การอัปเดตแบบกระจัดกระจาย '*var' เป็นอัลกอริทึม FOBOS พร้อมอัตราการเรียนรู้คงที่

เทนเซอร์โฟลว์ :: ops :: SparseApplyRMSProp

อัปเดต '*var' ตามอัลกอริทึม RMSProp