โหลดพารามิเตอร์การฝัง ADAM พร้อมการสนับสนุนการแก้ไขข้อบกพร่อง
ปฏิบัติการที่โหลดพารามิเตอร์การปรับให้เหมาะสมลงใน HBM เพื่อการฝัง ต้องนำหน้าด้วยตัวเลือก ConfigureTPUEmbeddingHost ที่ตั้งค่าการกำหนดค่าตารางฝังที่ถูกต้อง ตัวอย่างเช่น op นี้ใช้เพื่อติดตั้งพารามิเตอร์ที่โหลดจากจุดตรวจสอบก่อนที่จะดำเนินการลูปการฝึก
คลาสที่ซ้อนกัน
ระดับ | โหลดTPUEmbeddingADAMParametersGradAccumDebug.Options | แอตทริบิวต์เพิ่มเติมสำหรับ LoadTPUEmbeddingADAMParametersGradAccumDebug |
ค่าคงที่
สตริง | OP_NAME | ชื่อของ op นี้ ซึ่งรู้จักกันในชื่อของเอ็นจิ้นหลัก TensorFlow |
วิธีการสาธารณะ
LoadTPUEmbeddingADAMparametersGradAccumDebug.Options แบบคงที่ | config (กำหนดค่าสตริง) |
LoadTPUEmbeddingADAMparametersGradAccumDebug แบบคงที่ | สร้าง (ขอบเขต ขอบเขต , ตัวดำเนินการ < TFloat32 > พารามิเตอร์, ตัวดำเนินการ < TFloat32 > โมเมนต้า, ตัว ดำเนิน การ < TFloat32 > ความเร็ว, ตัวดำเนินการ < TFloat32 > การไล่ระดับสีAccumulators, Long numShards, Long shardId, ตัวเลือก... ตัวเลือก) วิธีการจากโรงงานเพื่อสร้างคลาสที่ห่อการดำเนินการ LoadTPUEmbeddingADAMparametersGradAccumDebug ใหม่ |
LoadTPUEmbeddingADAMparametersGradAccumDebug.Options แบบคงที่ | tableId (รหัสตารางแบบยาว) |
LoadTPUEmbeddingADAMparametersGradAccumDebug.Options แบบคงที่ | tableName (สตริงชื่อตาราง) |
วิธีการสืบทอด
ค่าคงที่
สตริงสุดท้ายแบบคงที่สาธารณะ OP_NAME
ชื่อของ op นี้ ซึ่งรู้จักกันในชื่อของเอ็นจิ้นหลัก TensorFlow
วิธีการสาธารณะ
LoadTPUEmbeddingADAMparametersGradAccumDebug สาธารณะ สร้าง (ขอบเขต ขอบเขต ตัวดำเนินการ < TFloat32 > พารามิเตอร์ ตัวดำเนินการ < TFloat32 > โมเมนต้า ตัว ดำเนินการ < TFloat32 > ความเร็ว ตัวดำเนิน การ < TFloat32 > การไล่ระดับสีสะสม ยาว numShards ยาว shardId ตัวเลือก... ตัวเลือก)
วิธีการจากโรงงานเพื่อสร้างคลาสที่ห่อการดำเนินการ LoadTPUEmbeddingADAMparametersGradAccumDebug ใหม่
พารามิเตอร์
ขอบเขต | ขอบเขตปัจจุบัน |
---|---|
พารามิเตอร์ | ค่าพารามิเตอร์ที่ใช้ในอัลกอริธึมการปรับให้เหมาะสมของ ADAM |
โมเมนตัม | มูลค่าโมเมนต้าที่ใช้ในอัลกอริธึมการปรับให้เหมาะสมของ ADAM |
ความเร็ว | ค่าความเร็วที่ใช้ในอัลกอริธึมการหาค่าเหมาะที่สุด ADAM |
การไล่ระดับสีสะสม | ค่าของ gradient_accumulators ที่ใช้ในอัลกอริธึมการปรับให้เหมาะสมของ ADAM |
ตัวเลือก | มีค่าแอตทริบิวต์ทางเลือก |
การส่งคืน
- อินสแตนซ์ใหม่ของ LoadTPUEmbeddingADAMparametersGradAccumDebug