با بهینه سازی مدل TensorFlow شروع کنید
با مجموعهها، منظم بمانید
ذخیره و طبقهبندی محتوا براساس اولویتهای شما.
1. بهترین مدل را برای کار انتخاب کنید
بسته به کار، باید بین پیچیدگی و اندازه مدل یک معاوضه ایجاد کنید. اگر کار شما به دقت بالایی نیاز دارد، ممکن است به یک مدل بزرگ و پیچیده نیاز داشته باشید. برای کارهایی که نیاز به دقت کمتری دارند، بهتر است از مدل کوچکتری استفاده کنید زیرا نه تنها از فضای دیسک و حافظه کمتری استفاده می کنند، بلکه به طور کلی سریعتر و مصرف انرژی بیشتری دارند.
2. مدل های از پیش بهینه شده
ببینید آیا مدلهای از پیش بهینهشده TensorFlow Lite کارایی مورد نیاز برنامه شما را ارائه میکنند یا خیر.
3. ابزار پس از آموزش
اگر نمیتوانید از یک مدل از پیش آموزشدیدهشده برای برنامهتان استفاده کنید، از ابزارهای کمیسازی پس از آموزش TensorFlow Lite در طول تبدیل TensorFlow Lite استفاده کنید، که میتواند مدل TensorFlow را که قبلاً آموزش دیدهاید بهینه کند.
برای کسب اطلاعات بیشتر به آموزش کوانتیزاسیون پس از آموزش مراجعه کنید.
اگر راهحلهای ساده بالا نیازهای شما را برآورده نمیکنند، ممکن است نیاز به استفاده از تکنیکهای بهینهسازی زمان آموزش داشته باشید. با ابزارهای زمان آموزش ما بیشتر بهینه شوید و عمیقتر شوید.
جز در مواردی که غیر از این ذکر شده باشد،محتوای این صفحه تحت مجوز Creative Commons Attribution 4.0 License است. نمونه کدها نیز دارای مجوز Apache 2.0 License است. برای اطلاع از جزئیات، به خطمشیهای سایت Google Developers مراجعه کنید. جاوا علامت تجاری ثبتشده Oracle و/یا شرکتهای وابسته به آن است.
تاریخ آخرین بهروزرسانی 2025-07-25 بهوقت ساعت هماهنگ جهانی.
[null,null,["تاریخ آخرین بهروزرسانی 2025-07-25 بهوقت ساعت هماهنگ جهانی."],[],[],null,["# Get started with TensorFlow model optimization\n\n\u003cbr /\u003e\n\n1. Choose the best model for the task\n-------------------------------------\n\nDepending on the task, you will need to make a tradeoff between model complexity\nand size. If your task requires high accuracy, then you may need a large and\ncomplex model. For tasks that require less precision, it is better to use a\nsmaller model because they not only use less disk space and memory, but they are\nalso generally faster and more energy efficient.\n\n2. Pre-optimized models\n-----------------------\n\nSee if any existing\n[TensorFlow Lite pre-optimized models](https://www.tensorflow.org/lite/models)\nprovide the efficiency required by your application.\n\n3. Post-training tooling\n------------------------\n\nIf you cannot use a pre-trained model for your application, try using\n[TensorFlow Lite post-training quantization tools](./quantization/post_training)\nduring [TensorFlow Lite conversion](https://www.tensorflow.org/lite/convert),\nwhich can optimize your already-trained TensorFlow model.\n\nSee the\n[post-training quantization tutorial](https://github.com/tensorflow/tensorflow/blob/master/tensorflow/lite/g3doc/performance/post_training_quant.ipynb)\nto learn more.\n\nNext steps: Training-time tooling\n---------------------------------\n\nIf the above simple solutions don't satisfy your needs, you may need to involve\ntraining-time optimization techniques.\n[Optimize further](/model_optimization/guide/optimize_further) with our training-time tools and dig\ndeeper."]]