BulkInferrer TFX পাইপলাইন উপাদান
সেভ করা পৃষ্ঠা গুছিয়ে রাখতে 'সংগ্রহ' ব্যবহার করুন
আপনার পছন্দ অনুযায়ী কন্টেন্ট সেভ করুন ও সঠিক বিভাগে রাখুন।
BulkInferrer TFX কম্পোনেন্ট লেবেলবিহীন ডেটাতে ব্যাচ ইনফারেন্স করে। জেনারেট করা InferenceResult( tensorflow_serving.apis.prediction_log_pb2.PredictionLog ) মূল বৈশিষ্ট্য এবং ভবিষ্যদ্বাণী ফলাফল ধারণ করে।
BulkInferrer ব্যবহার করে:
- SavedModel বিন্যাসে একটি প্রশিক্ষিত মডেল।
- লেবেলবিহীন tf. বৈশিষ্ট্য রয়েছে এমন উদাহরণ।
- (ঐচ্ছিক) মূল্যায়নকারী উপাদান থেকে যাচাইকরণের ফলাফল।
বাল্কইনফারার নির্গত করে:
BulkInferrer উপাদান ব্যবহার করে
একটি BulkInferrer TFX উপাদান লেবেলবিহীন tf. উদাহরণগুলিতে ব্যাচ অনুমান সম্পাদন করতে ব্যবহৃত হয়। এটি সাধারণত একটি যাচাইকৃত মডেলের সাথে অনুমান সঞ্চালনের জন্য একটি মূল্যায়নকারী উপাদানের পরে বা প্রশিক্ষক উপাদানের পরে সরাসরি রপ্তানিকৃত মডেলে অনুমান সম্পাদন করার জন্য স্থাপন করা হয়।
এটি বর্তমানে ইন-মেমরি মডেল অনুমান এবং দূরবর্তী অনুমান সম্পাদন করে। দূরবর্তী অনুমানের জন্য মডেলটিকে ক্লাউড এআই প্ল্যাটফর্মে হোস্ট করা প্রয়োজন৷
সাধারণ কোড এই মত দেখায়:
bulk_inferrer = BulkInferrer(
examples=examples_gen.outputs['examples'],
model=trainer.outputs['model'],
model_blessing=evaluator.outputs['blessing'],
data_spec=bulk_inferrer_pb2.DataSpec(),
model_spec=bulk_inferrer_pb2.ModelSpec()
)
BulkInferrer API রেফারেন্সে আরও বিশদ পাওয়া যায়।
অন্য কিছু উল্লেখ না করা থাকলে, এই পৃষ্ঠার কন্টেন্ট Creative Commons Attribution 4.0 License-এর অধীনে এবং কোডের নমুনাগুলি Apache 2.0 License-এর অধীনে লাইসেন্স প্রাপ্ত। আরও জানতে, Google Developers সাইট নীতি দেখুন। Java হল Oracle এবং/অথবা তার অ্যাফিলিয়েট সংস্থার রেজিস্টার্ড ট্রেডমার্ক।
2025-07-25 UTC-তে শেষবার আপডেট করা হয়েছে।
[null,null,["2025-07-25 UTC-তে শেষবার আপডেট করা হয়েছে।"],[],[],null,["# The BulkInferrer TFX Pipeline Component\n\n\u003cbr /\u003e\n\nThe BulkInferrer TFX component performs batch inference on unlabeled data. The\ngenerated\nInferenceResult([tensorflow_serving.apis.prediction_log_pb2.PredictionLog](https://github.com/tensorflow/serving/blob/master/tensorflow_serving/apis/prediction_log.proto))\ncontains the original features and the prediction results.\n\nBulkInferrer consumes:\n\n- A trained model in [SavedModel](https://www.tensorflow.org/guide/saved_model.md) format.\n- Unlabelled tf.Examples that contain features.\n- (Optional) Validation result from [Evaluator](https://www.tensorflow.org/tfx/guide/evaluator.md) component.\n\nBulkInferrer emits:\n\n- [InferenceResult](https://github.com/tensorflow/tfx/blob/master/tfx/types/standard_artifacts.py)\n\nUsing the BulkInferrer Component\n--------------------------------\n\nA BulkInferrer TFX component is used to perform batch inference on unlabeled\ntf.Examples. It is typically deployed after an\n[Evaluator](https://www.tensorflow.org/tfx/guide/evaluator.md) component to\nperform inference with a validated model, or after a\n[Trainer](https://www.tensorflow.org/tfx/guide/trainer.md) component to directly\nperform inference on exported model.\n\nIt currently performs in-memory model inference and remote inference.\nRemote inference requires the model to be hosted on Cloud AI Platform.\n\nTypical code looks like this: \n\n bulk_inferrer = BulkInferrer(\n examples=examples_gen.outputs['examples'],\n model=trainer.outputs['model'],\n model_blessing=evaluator.outputs['blessing'],\n data_spec=bulk_inferrer_pb2.DataSpec(),\n model_spec=bulk_inferrer_pb2.ModelSpec()\n )\n\nMore details are available in the\n[BulkInferrer API reference](https://www.tensorflow.org/tfx/api_docs/python/tfx/v1/components/BulkInferrer)."]]