টিউনার টিএফএক্স পাইপলাইন কম্পোনেন্ট

টিউনার কম্পোনেন্টটি মডেলের জন্য হাইপারপ্যারামিটারগুলিকে সুর করে।

টিউনার কম্পোনেন্ট এবং কেরাসটুনার লাইব্রেরি

টিউনার উপাদান পাইথন ব্যাপক ব্যবহার KerasTuner টিউনিং hyperparameters জন্য API।

উপাদান

টিউনার লাগে:

  • tf প্রশিক্ষণ এবং eval জন্য ব্যবহৃত উদাহরণ।
  • একজন ব্যবহারকারী মডিউল ফাইল (বা মডিউল এফএন) প্রদান করে যা টিউনিং যুক্তিকে সংজ্ঞায়িত করে, যার মধ্যে মডেল সংজ্ঞা, হাইপারপ্যারামিটার অনুসন্ধান স্থান, উদ্দেশ্য ইত্যাদি।
  • Protobuf ট্রেন args এবং Eval args এর সংজ্ঞা।
  • (ঐচ্ছিক) Protobuf টিউনিং args এর সংজ্ঞা।
  • (Alচ্ছিক) একটি আপস্ট্রিম ট্রান্সফর্ম উপাদান দ্বারা উত্পাদিত গ্রাফ রূপান্তর করুন।
  • (Alচ্ছিক) একটি ডেটা স্কিমা স্কিমজেন পাইপলাইন উপাদান দ্বারা তৈরি এবং allyচ্ছিকভাবে ডেভেলপার দ্বারা পরিবর্তিত।

প্রদত্ত ডেটা, মডেল এবং উদ্দেশ্য সহ, টিউনার হাইপারপ্যারামিটারগুলিকে সুর দেয় এবং সেরা ফলাফল নির্গত করে।

নির্দেশাবলী

একজন ব্যবহারকারী মডিউল ফাংশন tuner_fn নিম্নলিখিত স্বাক্ষর সহ টিউনার জন্য প্রয়োজন বোধ করা হয়:

...
from keras_tuner.engine import base_tuner

TunerFnResult = NamedTuple('TunerFnResult', [('tuner', base_tuner.BaseTuner),
                                             ('fit_kwargs', Dict[Text, Any])])

def tuner_fn(fn_args: FnArgs) -> TunerFnResult:
  """Build the tuner using the KerasTuner API.
  Args:
    fn_args: Holds args as name/value pairs.
      - working_dir: working dir for tuning.
      - train_files: List of file paths containing training tf.Example data.
      - eval_files: List of file paths containing eval tf.Example data.
      - train_steps: number of train steps.
      - eval_steps: number of eval steps.
      - schema_path: optional schema of the input data.
      - transform_graph_path: optional transform graph produced by TFT.
  Returns:
    A namedtuple contains the following:
      - tuner: A BaseTuner that will be used for tuning.
      - fit_kwargs: Args to pass to tuner's run_trial function for fitting the
                    model , e.g., the training and validation dataset. Required
                    args depend on the above tuner's implementation.
  """
  ...

এই ফাংশনে, আপনি মডেল এবং হাইপারপ্যারামিটার অনুসন্ধান স্পেস উভয়ই সংজ্ঞায়িত করেন এবং টিউনিংয়ের জন্য উদ্দেশ্য এবং অ্যালগরিদম নির্বাচন করুন। টিউনার কম্পোনেন্ট এই মডিউল কোডটিকে ইনপুট হিসেবে নেয়, হাইপারপ্যারামিটারগুলিকে সুর দেয় এবং সেরা ফলাফল নির্গত করে।

প্রশিক্ষক টিউনারের আউটপুট হাইপারপ্যারামিটারগুলিকে ইনপুট হিসাবে নিতে পারে এবং সেগুলিকে তার ব্যবহারকারী মডিউল কোডে ব্যবহার করতে পারে। পাইপলাইন সংজ্ঞা এই মত দেখাচ্ছে:

...
tuner = Tuner(
    module_file=module_file,  # Contains `tuner_fn`.
    examples=transform.outputs['transformed_examples'],
    transform_graph=transform.outputs['transform_graph'],
    train_args=trainer_pb2.TrainArgs(num_steps=20),
    eval_args=trainer_pb2.EvalArgs(num_steps=5))

trainer = Trainer(
    module_file=module_file,  # Contains `run_fn`.
    examples=transform.outputs['transformed_examples'],
    transform_graph=transform.outputs['transform_graph'],
    schema=schema_gen.outputs['schema'],
    # This will be passed to `run_fn`.
    hyperparameters=tuner.outputs['best_hyperparameters'],
    train_args=trainer_pb2.TrainArgs(num_steps=100),
    eval_args=trainer_pb2.EvalArgs(num_steps=5))
...

আপনি যখনই আপনার মডেলটি পুনরায় প্রশিক্ষণ করবেন তখন হাইপারপ্যারামিটারগুলি সুর করতে চান না। একবার আপনি টিউনার ব্যবহার করেছেন hyperparameters একটি ভাল সেট নির্ধারণ করতে, আপনি আপনার পাইপলাইন এবং ব্যবহার থেকে টিউনার অপসারণ করতে পারেন ImporterNode পূর্ববর্তী প্রশিক্ষণ প্রশিক্ষক ফিড চালানো থেকে টিউনার হস্তনির্মিত বস্তু আমদানি করতে।

hparams_importer = ImporterNode(
    instance_name='import_hparams',
    # This can be Tuner's output file or manually edited file. The file contains
    # text format of hyperparameters (keras_tuner.HyperParameters.get_config())
    source_uri='path/to/best_hyperparameters.txt',
    artifact_type=HyperParameters)

trainer = Trainer(
    ...
    # An alternative is directly use the tuned hyperparameters in Trainer's user
    # module code and set hyperparameters to None here.
    hyperparameters = hparams_importer.outputs['result'])

গুগল ক্লাউড প্ল্যাটফর্মে (জিসিপি) টিউনিং

গুগল ক্লাউড প্ল্যাটফর্মে (জিসিপি) চলার সময়, টিউনার উপাদান দুটি পরিষেবার সুবিধা নিতে পারে:

হাইপারপ্যারামিটার টিউনিংয়ের ব্যাকএন্ড হিসেবে এআই প্ল্যাটফর্ম ভিজিয়ার

এআই প্ল্যাটফর্ম ভিজিয়েরের একটি পরিচালিত পরিষেবা যা কালো বাক্স অপ্টিমাইজেশান সঞ্চালিত উপর ভিত্তি করে হয় গুগল ভিজিয়েরের প্রযুক্তি।

CloudTuner একটি বাস্তবায়ন KerasTuner যা অধ্যয়ন ব্যাকএন্ড যেমন এআই প্ল্যাটফর্ম ভিজিয়েরের সেবার কথা বলেছেন। যেহেতু CloudTuner একটি উপশ্রেণী হয় keras_tuner.Tuner , এটি একটি ড্রপ-মধ্যে পরিবর্তে ব্যবহার করা যেতে পারে tuner_fn মডিউল, এবং TFX টিউনার উপাদান একটি অংশ হিসাবে চালানো।

নীচে যা দেখায় কিভাবে ব্যবহার করার জন্য একটি কোড স্নিপেট হয় CloudTuner । লক্ষ করুন যে, কনফিগারেশন CloudTuner যেমন আইটেম যা GCP নির্দিষ্ট হয়, প্রয়োজন project_id এবং region

...
from tensorflow_cloud import CloudTuner

...
def tuner_fn(fn_args: FnArgs) -> TunerFnResult:
  """An implementation of tuner_fn that instantiates CloudTuner."""

  ...
  tuner = CloudTuner(
      _build_model,
      hyperparameters=...,
      ...
      project_id=...,       # GCP Project ID
      region=...,           # GCP Region where Vizier service is run.
  )

  ...
  return TuneFnResult(
      tuner=tuner,
      fit_kwargs={...}
  )

ক্লাউড এআই প্ল্যাটফর্ম প্রশিক্ষণে সমান্তরাল টিউনিং বিতরণ করা শ্রমিকদের ঝাঁক

টিউনার কম্পোনেন্টের অন্তর্নিহিত বাস্তবায়ন হিসাবে কেরাসটুনার ফ্রেমওয়ার্কের সমান্তরালে হাইপারপ্যারামিটার অনুসন্ধান পরিচালনা করার ক্ষমতা রয়েছে। স্টক টিউনার উপাদান, সমান্তরাল একটির বেশি সার্চ কর্মী চালানো ব্যবহার করে পারবে না যদিও Google মেঘ এআই প্ল্যাটফর্ম এক্সটেনশন টিউনার উপাদান , এটা সমান্তরাল টিউনিং চালানোর ক্ষমতা, একটি এআই প্ল্যাটফর্ম প্রশিক্ষণ চাকরির বন্টিত কর্মী পাল হিসেবে ব্যবহার উপলব্ধ ম্যানেজার TuneArgs কনফিগারেশন এই উপাদানটি দেওয়া হয়। এটি স্টক টিউনার কম্পোনেন্টের ড্রপ-ইন রিপ্লেসমেন্ট।

tuner = google_cloud_ai_platform.Tuner(
    ...   # Same kwargs as the above stock Tuner component.
    tune_args=proto.TuneArgs(num_parallel_trials=3),  # 3-worker parallel
    custom_config={
        # Configures Cloud AI Platform-specific configs . For for details, see
        # https://cloud.google.com/ai-platform/training/docs/reference/rest/v1/projects.jobs#traininginput.
        TUNING_ARGS_KEY:
            {
                'project': ...,
                'region': ...,
                # Configuration of machines for each master/worker in the flock.
                'masterConfig': ...,
                'workerConfig': ...,
                ...
            }
    })
...

আচরণ এবং এক্সটেনশন টিউনার উপাদানের আউটপুট ব্যতীত একাধিক hyperparameter অনুসন্ধানসমূহ বিভিন্ন শ্রমিক মেশিনে সমান্তরাল মৃত্যুদন্ড কার্যকর করা হয়, স্টক টিউনার উপাদান হিসাবে একই, এবং এর ফলে num_trials দ্রুত সম্পন্ন করা হবে। এই প্রবণতা বিশেষ করে কার্যকর যখন অনুসন্ধান আলগোরিদিম যেমন embarrassingly parallelizable হয় RandomSearch । যাইহোক, যদি অনুসন্ধান অ্যালগরিদম পূর্ববর্তী পরীক্ষার ফলাফল থেকে তথ্য ব্যবহার করে, যেমন এআই প্ল্যাটফর্ম ভিজিয়ারে প্রয়োগ করা গুগল ভিজিয়ার অ্যালগরিদম, অতিরিক্ত সমান্তরাল অনুসন্ধান নেতিবাচকভাবে অনুসন্ধানের কার্যকারিতা প্রভাবিত করবে।

E2E উদাহরণ

GCP উদাহরণে E2E CloudTuner

KerasTuner টিউটোরিয়াল

ক্লাউডটুনার টিউটোরিয়াল

প্রস্তাব

আরো বিস্তারিত পাওয়া যায় টিউনার এপিআই রেফারেন্স