টিউনার টিএফএক্স পাইপলাইন উপাদান

টিউনার উপাদানটি মডেলের হাইপারপ্যারামিটারগুলিকে সুর করে।

টিউনার কম্পোনেন্ট এবং কেরাসটিউনার লাইব্রেরি

টিউনার উপাদানটি হাইপারপ্যারামিটার টিউন করার জন্য Python KerasTuner API-এর ব্যাপক ব্যবহার করে।

উপাদান

টিউনার লাগে:

  • tf. প্রশিক্ষণ এবং ইভালের জন্য ব্যবহৃত উদাহরণ।
  • একজন ব্যবহারকারী মডিউল ফাইল (বা মডিউল এফএন) প্রদান করেছেন যা মডেল সংজ্ঞা, হাইপারপ্যারামিটার অনুসন্ধান স্থান, উদ্দেশ্য ইত্যাদি সহ টিউনিং লজিককে সংজ্ঞায়িত করে।
  • ট্রেন আর্গস এবং ইভাল আর্গসের প্রোটোবাফ সংজ্ঞা।
  • (ঐচ্ছিক) টিউনিং আর্গের প্রোটোবাফ সংজ্ঞা।
  • (ঐচ্ছিক) একটি আপস্ট্রিম ট্রান্সফর্ম উপাদান দ্বারা উত্পাদিত রূপান্তর গ্রাফ।
  • (ঐচ্ছিক) একটি SchemaGen পাইপলাইন উপাদান দ্বারা তৈরি এবং ঐচ্ছিকভাবে বিকাশকারী দ্বারা পরিবর্তিত একটি ডেটা স্কিমা৷

প্রদত্ত ডেটা, মডেল এবং উদ্দেশ্য সহ, টিউনার হাইপারপ্যারামিটারগুলিকে সুর করে এবং সর্বোত্তম ফলাফল নির্গত করে।

নির্দেশনা

টিউনারের জন্য নিম্নলিখিত স্বাক্ষর সহ একটি ব্যবহারকারী মডিউল ফাংশন tuner_fn প্রয়োজন:

...
from keras_tuner.engine import base_tuner

TunerFnResult = NamedTuple('TunerFnResult', [('tuner', base_tuner.BaseTuner),
                                             ('fit_kwargs', Dict[Text, Any])])

def tuner_fn(fn_args: FnArgs) -> TunerFnResult:
  """Build the tuner using the KerasTuner API.
  Args:
    fn_args: Holds args as name/value pairs.
      - working_dir: working dir for tuning.
      - train_files: List of file paths containing training tf.Example data.
      - eval_files: List of file paths containing eval tf.Example data.
      - train_steps: number of train steps.
      - eval_steps: number of eval steps.
      - schema_path: optional schema of the input data.
      - transform_graph_path: optional transform graph produced by TFT.
  Returns:
    A namedtuple contains the following:
      - tuner: A BaseTuner that will be used for tuning.
      - fit_kwargs: Args to pass to tuner's run_trial function for fitting the
                    model , e.g., the training and validation dataset. Required
                    args depend on the above tuner's implementation.
  """
  ...

এই ফাংশনে, আপনি মডেল এবং হাইপারপ্যারামিটার অনুসন্ধান স্পেস উভয়ই সংজ্ঞায়িত করুন এবং টিউনিংয়ের জন্য উদ্দেশ্য এবং অ্যালগরিদম চয়ন করুন। টিউনার কম্পোনেন্ট এই মডিউল কোডটি ইনপুট হিসাবে নেয়, হাইপারপ্যারামিটার টিউন করে এবং সর্বোত্তম ফলাফল নির্গত করে।

প্রশিক্ষক টিউনারের আউটপুট হাইপারপ্যারামিটারগুলিকে ইনপুট হিসাবে নিতে পারে এবং সেগুলিকে তার ব্যবহারকারী মডিউল কোডে ব্যবহার করতে পারে। পাইপলাইন সংজ্ঞা এই মত দেখায়:

...
tuner = Tuner(
    module_file=module_file,  # Contains `tuner_fn`.
    examples=transform.outputs['transformed_examples'],
    transform_graph=transform.outputs['transform_graph'],
    train_args=trainer_pb2.TrainArgs(num_steps=20),
    eval_args=trainer_pb2.EvalArgs(num_steps=5))

trainer = Trainer(
    module_file=module_file,  # Contains `run_fn`.
    examples=transform.outputs['transformed_examples'],
    transform_graph=transform.outputs['transform_graph'],
    schema=schema_gen.outputs['schema'],
    # This will be passed to `run_fn`.
    hyperparameters=tuner.outputs['best_hyperparameters'],
    train_args=trainer_pb2.TrainArgs(num_steps=100),
    eval_args=trainer_pb2.EvalArgs(num_steps=5))
...

আপনি যখনই আপনার মডেলকে পুনরায় প্রশিক্ষণ দেবেন তখন আপনি হাইপারপ্যারামিটারগুলি টিউন করতে চাইবেন না। একবার আপনি হাইপারপ্যারামিটারের একটি ভাল সেট নির্ধারণ করতে টিউনার ব্যবহার করলে, আপনি আপনার পাইপলাইন থেকে টিউনারকে সরাতে পারেন এবং ট্রেনারকে খাওয়ানোর জন্য পূর্ববর্তী প্রশিক্ষণ থেকে টিউনার আর্টিফ্যাক্ট আমদানি করতে ImporterNode ব্যবহার করতে পারেন।

hparams_importer = Importer(
    # This can be Tuner's output file or manually edited file. The file contains
    # text format of hyperparameters (keras_tuner.HyperParameters.get_config())
    source_uri='path/to/best_hyperparameters.txt',
    artifact_type=HyperParameters,
).with_id('import_hparams')

trainer = Trainer(
    ...
    # An alternative is directly use the tuned hyperparameters in Trainer's user
    # module code and set hyperparameters to None here.
    hyperparameters = hparams_importer.outputs['result'])

গুগল ক্লাউড প্ল্যাটফর্মে টিউনিং (GCP)

Google ক্লাউড প্ল্যাটফর্মে (GCP) চলাকালীন, টিউনার উপাদান দুটি পরিষেবার সুবিধা নিতে পারে:

হাইপারপ্যারামিটার টিউনিংয়ের ব্যাকএন্ড হিসাবে এআই প্ল্যাটফর্ম ভিজিয়ার

AI প্ল্যাটফর্ম Vizier হল একটি পরিচালিত পরিষেবা যা Google Vizier প্রযুক্তির উপর ভিত্তি করে ব্ল্যাক বক্স অপ্টিমাইজেশান করে।

ক্লাউডটিউনার হল কেরাসটিউনারের একটি বাস্তবায়ন যা এআই প্ল্যাটফর্ম ভিজিয়ার পরিষেবার সাথে স্টাডি ব্যাকএন্ড হিসাবে কথা বলে। যেহেতু ক্লাউডটিউনার হল keras_tuner.Tuner এর একটি সাবক্লাস, এটি tuner_fn মডিউলে একটি ড্রপ-ইন প্রতিস্থাপন হিসাবে ব্যবহার করা যেতে পারে এবং TFX টিউনার উপাদানের একটি অংশ হিসাবে কার্যকর করা যেতে পারে।

নীচে একটি কোড স্নিপেট যা দেখায় কিভাবে CloudTuner ব্যবহার করতে হয়। লক্ষ্য করুন যে CloudTuner এর কনফিগারেশনের জন্য GCP-এর জন্য নির্দিষ্ট আইটেমগুলির প্রয়োজন, যেমন project_id এবং region

...
from tensorflow_cloud import CloudTuner

...
def tuner_fn(fn_args: FnArgs) -> TunerFnResult:
  """An implementation of tuner_fn that instantiates CloudTuner."""

  ...
  tuner = CloudTuner(
      _build_model,
      hyperparameters=...,
      ...
      project_id=...,       # GCP Project ID
      region=...,           # GCP Region where Vizier service is run.
  )

  ...
  return TuneFnResult(
      tuner=tuner,
      fit_kwargs={...}
  )

ক্লাউড এআই প্ল্যাটফর্ম প্রশিক্ষণে সমান্তরাল টিউনিং বিতরণ করা কর্মী ঝাঁক

টিউনার উপাদানের অন্তর্নিহিত বাস্তবায়ন হিসাবে KerasTuner কাঠামো সমান্তরালে হাইপারপ্যারামিটার অনুসন্ধান পরিচালনা করার ক্ষমতা রাখে। Google ক্লাউড এআই প্ল্যাটফর্ম এক্সটেনশন টিউনার কম্পোনেন্ট ব্যবহার করে স্টক টিউনার উপাদানটির সমান্তরালে একাধিক অনুসন্ধান কর্মী চালানোর ক্ষমতা না থাকলেও, এটি বিতরণ করা কর্মী পাল হিসাবে একটি এআই প্ল্যাটফর্ম প্রশিক্ষণের কাজ ব্যবহার করে সমান্তরাল টিউনিং চালানোর ক্ষমতা প্রদান করে। ম্যানেজার TuneArgs হল এই কম্পোনেন্টে দেওয়া কনফিগারেশন। এটি স্টক টিউনার উপাদানের একটি ড্রপ-ইন প্রতিস্থাপন।

tuner = google_cloud_ai_platform.Tuner(
    ...   # Same kwargs as the above stock Tuner component.
    tune_args=proto.TuneArgs(num_parallel_trials=3),  # 3-worker parallel
    custom_config={
        # Configures Cloud AI Platform-specific configs . For for details, see
        # https://cloud.google.com/ai-platform/training/docs/reference/rest/v1/projects.jobs#traininginput.
        TUNING_ARGS_KEY:
            {
                'project': ...,
                'region': ...,
                # Configuration of machines for each master/worker in the flock.
                'masterConfig': ...,
                'workerConfig': ...,
                ...
            }
    })
...

এক্সটেনশন টিউনার কম্পোনেন্টের আচরণ এবং আউটপুট স্টক টিউনার কম্পোনেন্টের মতই, এটি ছাড়া একাধিক হাইপারপ্যারামিটার অনুসন্ধান বিভিন্ন কর্মী মেশিনে সমান্তরালভাবে সম্পাদিত হয় এবং ফলস্বরূপ, num_trials দ্রুত সম্পন্ন হবে। এটি বিশেষভাবে কার্যকর যখন অনুসন্ধান অ্যালগরিদম বিব্রতকরভাবে সমান্তরাল হয়, যেমন RandomSearch । যাইহোক, যদি সার্চ অ্যালগরিদম পূর্বের ট্রায়ালের ফলাফল থেকে তথ্য ব্যবহার করে, যেমন AI প্ল্যাটফর্ম ভিজিয়ারে প্রয়োগ করা Google Vizier অ্যালগরিদম, একটি অত্যধিক সমান্তরাল অনুসন্ধান অনুসন্ধানের কার্যকারিতাকে নেতিবাচকভাবে প্রভাবিত করবে।

E2E উদাহরণ

GCP উদাহরণে E2E ক্লাউডটিউনার

KerasTuner টিউটোরিয়াল

ক্লাউডটিউনার টিউটোরিয়াল

প্রস্তাব

টিউনার API রেফারেন্সে আরও বিশদ পাওয়া যায়।