Nouveau dans l'apprentissage automatique ? Regardez un cours vidéo pour acquérir des connaissances pratiques sur le ML à l'aide des technologies Web
Voir la série
Qu'est-ce que l'apprentissage par transfert ?
Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
Les modèles sophistiqués d'apprentissage en profondeur ont des millions de paramètres (pondérations), et leur formation à partir de zéro nécessite souvent de grandes quantités de données et de ressources informatiques. L'apprentissage par transfert est une technique qui raccourcit une grande partie de cela en prenant un morceau d'un modèle qui a déjà été formé sur une tâche connexe et en le réutilisant dans un nouveau modèle.
Par exemple, le didacticiel suivant de cette section vous montrera comment créer votre propre outil de reconnaissance d'images qui tire parti d'un modèle déjà formé pour reconnaître des milliers d'objets différents dans les images. Vous pouvez adapter les connaissances existantes dans le modèle pré-formé pour détecter vos propres classes d'images en utilisant beaucoup moins de données de formation que le modèle d'origine requis.
Ceci est utile pour développer rapidement de nouveaux modèles ainsi que pour personnaliser des modèles dans des environnements à ressources limitées comme les navigateurs et les appareils mobiles.
Le plus souvent, lors de l'apprentissage par transfert, nous n'ajustons pas les poids du modèle d'origine. Au lieu de cela, nous supprimons la couche finale et formons un nouveau modèle (souvent assez superficiel) au-dessus de la sortie du modèle tronqué. C'est la technique que vous verrez démontrée dans les tutoriels de cette section :
Pour un exemple supplémentaire d'apprentissage par transfert à l'aide de TensorFlow.js, consultez Utiliser un modèle pré-entraîné .
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/07/25 (UTC).
[null,null,["Dernière mise à jour le 2025/07/25 (UTC)."],[],[],null,["# What is transfer learning?\n\n\u003cbr /\u003e\n\nSophisticated deep learning models have millions of parameters (weights), and\ntraining them from scratch often requires large amounts of data and computing\nresources. Transfer learning is a technique that shortcuts much of this by\ntaking a piece of a model that has already been trained on a related task and\nreusing it in a new model.\n\nFor example, the next tutorial in this section will show you how to build your\nown image recognizer that takes advantage of a model that was already trained to\nrecognize 1000s of different kinds of objects within images. You can adapt the\nexisting knowledge in the pre-trained model to detect your own image classes\nusing much less training data than the original model required.\n\nThis is useful for rapidly developing new models as well as customizing models\nin resource-constrained environments like browsers and mobile devices.\n\nMost often when doing transfer learning, we don't adjust the weights of the\noriginal model. Instead we remove the final layer and train a new (often fairly\nshallow) model on top of the output of the truncated model. This is the\ntechnique you will see demonstrated in the tutorials in this section:\n\n- [Build a transfer-learning based image classifier](/js/tutorials/transfer/image_classification)\n- [Build a transfer-learning based audio recognizer](/js/tutorials/transfer/audio_recognizer)\n\nFor an additional example of transfer learning using TensorFlow.js, see\n[Use a pre-trained model](/js/tutorials/conversion/pretrained_model)."]]