جزء خط لوله BulkInferrer TFX
با مجموعهها، منظم بمانید
ذخیره و طبقهبندی محتوا براساس اولویتهای شما.
جزء BulkInferrer TFX استنتاج دسته ای را روی داده های بدون برچسب انجام می دهد. InferenceResult ایجاد شده ( tensorflow_serving.apis.prediction_log_pb2.PredictionLog ) حاوی ویژگی های اصلی و نتایج پیش بینی است.
BulkInferrer مصرف می کند:
- یک مدل آموزش دیده با فرمت SavedModel .
- بدون برچسب tf. مثال هایی که حاوی ویژگی هایی هستند.
- (اختیاری) نتیجه اعتبارسنجی از مؤلفه ارزیاب .
BulkInferrer منتشر می کند:
با استفاده از کامپوننت BulkInferrer
یک جزء BulkInferrer TFX برای انجام استنتاج دسته ای در tf.Examples بدون برچسب استفاده می شود. معمولاً بعد از یک مؤلفه Evaluator برای انجام استنتاج با یک مدل معتبر یا بعد از یک مؤلفه Trainer برای اجرای مستقیم استنتاج بر روی مدل صادر شده استفاده می شود.
در حال حاضر استنتاج مدل درون حافظه و استنتاج از راه دور را انجام می دهد. استنتاج از راه دور نیاز به میزبانی مدل در پلتفرم Cloud AI دارد.
کد معمولی به شکل زیر است:
bulk_inferrer = BulkInferrer(
examples=examples_gen.outputs['examples'],
model=trainer.outputs['model'],
model_blessing=evaluator.outputs['blessing'],
data_spec=bulk_inferrer_pb2.DataSpec(),
model_spec=bulk_inferrer_pb2.ModelSpec()
)
جزئیات بیشتر در مرجع BulkInferrer API موجود است.
جز در مواردی که غیر از این ذکر شده باشد،محتوای این صفحه تحت مجوز Creative Commons Attribution 4.0 License است. نمونه کدها نیز دارای مجوز Apache 2.0 License است. برای اطلاع از جزئیات، به خطمشیهای سایت Google Developers مراجعه کنید. جاوا علامت تجاری ثبتشده Oracle و/یا شرکتهای وابسته به آن است.
تاریخ آخرین بهروزرسانی 2025-07-25 بهوقت ساعت هماهنگ جهانی.
[null,null,["تاریخ آخرین بهروزرسانی 2025-07-25 بهوقت ساعت هماهنگ جهانی."],[],[],null,["# The BulkInferrer TFX Pipeline Component\n\n\u003cbr /\u003e\n\nThe BulkInferrer TFX component performs batch inference on unlabeled data. The\ngenerated\nInferenceResult([tensorflow_serving.apis.prediction_log_pb2.PredictionLog](https://github.com/tensorflow/serving/blob/master/tensorflow_serving/apis/prediction_log.proto))\ncontains the original features and the prediction results.\n\nBulkInferrer consumes:\n\n- A trained model in [SavedModel](https://www.tensorflow.org/guide/saved_model.md) format.\n- Unlabelled tf.Examples that contain features.\n- (Optional) Validation result from [Evaluator](https://www.tensorflow.org/tfx/guide/evaluator.md) component.\n\nBulkInferrer emits:\n\n- [InferenceResult](https://github.com/tensorflow/tfx/blob/master/tfx/types/standard_artifacts.py)\n\nUsing the BulkInferrer Component\n--------------------------------\n\nA BulkInferrer TFX component is used to perform batch inference on unlabeled\ntf.Examples. It is typically deployed after an\n[Evaluator](https://www.tensorflow.org/tfx/guide/evaluator.md) component to\nperform inference with a validated model, or after a\n[Trainer](https://www.tensorflow.org/tfx/guide/trainer.md) component to directly\nperform inference on exported model.\n\nIt currently performs in-memory model inference and remote inference.\nRemote inference requires the model to be hosted on Cloud AI Platform.\n\nTypical code looks like this: \n\n bulk_inferrer = BulkInferrer(\n examples=examples_gen.outputs['examples'],\n model=trainer.outputs['model'],\n model_blessing=evaluator.outputs['blessing'],\n data_spec=bulk_inferrer_pb2.DataSpec(),\n model_spec=bulk_inferrer_pb2.ModelSpec()\n )\n\nMore details are available in the\n[BulkInferrer API reference](https://www.tensorflow.org/tfx/api_docs/python/tfx/v1/components/BulkInferrer)."]]