ส่วนประกอบไปป์ไลน์ BulkInferrer TFX
จัดทุกอย่างให้เป็นระเบียบอยู่เสมอด้วยคอลเล็กชัน
บันทึกและจัดหมวดหมู่เนื้อหาตามค่ากำหนดของคุณ
ส่วนประกอบ BulkInferrer TFX ทำการอนุมานแบบแบตช์กับข้อมูลที่ไม่มีป้ายกำกับ InferenceResult ที่สร้างขึ้น ( tensorflow_serving.apis.prediction_log_pb2.PredictionLog ) มีคุณสมบัติดั้งเดิมและผลการคาดการณ์
BulkInferrer ใช้:
- โมเดลที่ได้รับการฝึกอบรมในรูปแบบ SavedModel
- tf.Examples ที่ไม่มีป้ายกำกับที่มีคุณสมบัติ
- (ไม่บังคับ) ผลการตรวจสอบความถูกต้องจากส่วนประกอบของ Evaluator
BulkInferrer ปล่อย:
การใช้ส่วนประกอบ BulkInferrer
ส่วนประกอบ BulkInferrer TFX ใช้ในการอนุมานแบบแบตช์บน tf.Examples ที่ไม่มีป้ายกำกับ โดยทั่วไปแล้วจะใช้งานหลังจากส่วนประกอบ Evaluator เพื่อทำการอนุมานกับโมเดลที่ได้รับการตรวจสอบแล้ว หรือหลังจากส่วนประกอบ Trainer เพื่อทำการอนุมานโดยตรงกับโมเดลที่ส่งออก
ขณะนี้ดำเนินการอนุมานแบบจำลองในหน่วยความจำและการอนุมานระยะไกล การอนุมานระยะไกลต้องการให้โมเดลโฮสต์บน Cloud AI Platform
รหัสทั่วไปมีลักษณะดังนี้:
bulk_inferrer = BulkInferrer(
examples=examples_gen.outputs['examples'],
model=trainer.outputs['model'],
model_blessing=evaluator.outputs['blessing'],
data_spec=bulk_inferrer_pb2.DataSpec(),
model_spec=bulk_inferrer_pb2.ModelSpec()
)
มีรายละเอียดเพิ่มเติมใน ข้อมูลอ้างอิง BulkInferrer API
เนื้อหาของหน้าเว็บนี้ได้รับอนุญาตภายใต้ใบอนุญาตที่ต้องระบุที่มาของครีเอทีฟคอมมอนส์ 4.0 และตัวอย่างโค้ดได้รับอนุญาตภายใต้ใบอนุญาต Apache 2.0 เว้นแต่จะระบุไว้เป็นอย่างอื่น โปรดดูรายละเอียดที่นโยบายเว็บไซต์ Google Developers Java เป็นเครื่องหมายการค้าจดทะเบียนของ Oracle และ/หรือบริษัทในเครือ
อัปเดตล่าสุด 2025-07-25 UTC
[null,null,["อัปเดตล่าสุด 2025-07-25 UTC"],[],[],null,["# The BulkInferrer TFX Pipeline Component\n\n\u003cbr /\u003e\n\nThe BulkInferrer TFX component performs batch inference on unlabeled data. The\ngenerated\nInferenceResult([tensorflow_serving.apis.prediction_log_pb2.PredictionLog](https://github.com/tensorflow/serving/blob/master/tensorflow_serving/apis/prediction_log.proto))\ncontains the original features and the prediction results.\n\nBulkInferrer consumes:\n\n- A trained model in [SavedModel](https://www.tensorflow.org/guide/saved_model.md) format.\n- Unlabelled tf.Examples that contain features.\n- (Optional) Validation result from [Evaluator](https://www.tensorflow.org/tfx/guide/evaluator.md) component.\n\nBulkInferrer emits:\n\n- [InferenceResult](https://github.com/tensorflow/tfx/blob/master/tfx/types/standard_artifacts.py)\n\nUsing the BulkInferrer Component\n--------------------------------\n\nA BulkInferrer TFX component is used to perform batch inference on unlabeled\ntf.Examples. It is typically deployed after an\n[Evaluator](https://www.tensorflow.org/tfx/guide/evaluator.md) component to\nperform inference with a validated model, or after a\n[Trainer](https://www.tensorflow.org/tfx/guide/trainer.md) component to directly\nperform inference on exported model.\n\nIt currently performs in-memory model inference and remote inference.\nRemote inference requires the model to be hosted on Cloud AI Platform.\n\nTypical code looks like this: \n\n bulk_inferrer = BulkInferrer(\n examples=examples_gen.outputs['examples'],\n model=trainer.outputs['model'],\n model_blessing=evaluator.outputs['blessing'],\n data_spec=bulk_inferrer_pb2.DataSpec(),\n model_spec=bulk_inferrer_pb2.ModelSpec()\n )\n\nMore details are available in the\n[BulkInferrer API reference](https://www.tensorflow.org/tfx/api_docs/python/tfx/v1/components/BulkInferrer)."]]