Дальнейшая оптимизация
Оптимизируйте свои подборки
Сохраняйте и классифицируйте контент в соответствии со своими настройками.
Если предварительно оптимизированные модели и инструменты после обучения не удовлетворяют вашему сценарию использования, следующим шагом будет опробовать другие инструменты во время обучения.
Инструмент времени обучения объединяет функцию потерь модели с обучающими данными, чтобы модель могла «адаптироваться» к изменениям, внесенным методом оптимизации.
Отправной точкой для использования наших обучающих API является обучающий скрипт Keras, который можно дополнительно инициализировать из предварительно обученной модели Keras для дальнейшей точной настройки.
Инструменты времени обучения, доступные для вас, чтобы попробовать:
Если не указано иное, контент на этой странице предоставляется по лицензии Creative Commons "С указанием авторства 4.0", а примеры кода – по лицензии Apache 2.0. Подробнее об этом написано в правилах сайта. Java – это зарегистрированный товарный знак корпорации Oracle и ее аффилированных лиц.
Последнее обновление: 2025-07-25 UTC.
[null,null,["Последнее обновление: 2025-07-25 UTC."],[],[],null,["# Optimize further\n\n\u003cbr /\u003e\n\nWhen pre-optimized models and post-training tools do not satisfy your use case,\nthe next step is to try the different training-time tools.\n\nTraining time tools piggyback on the model's loss function over the training\ndata such that the model can \"adapt\" to the changes brought by the optimization\ntechnique.\n\nThe starting point to use our training APIs is a Keras training script, which\ncan be optionally initialized from a pre-trained Keras model to further fine\ntune.\n\nTraining time tools available for you to try:\n\n- [Weight pruning](./pruning/)\n- [Quantization](./quantization/training)\n- [Weight clustering](./clustering/)\n- [Collaborative optimization](./combine/collaborative_optimization)"]]