Makine öğreniminde yeni misiniz? Web teknolojilerini kullanarak makine öğrenimi hakkında pratik çalışma bilgisi edinmek için bir video kursu izleyin
Seriyi görüntüleyin
Transfer öğrenme nedir?
Koleksiyonlar ile düzeninizi koruyun
İçeriği tercihlerinize göre kaydedin ve kategorilere ayırın.
Gelişmiş derin öğrenme modellerinde milyonlarca parametre (ağırlık) bulunur ve bunları sıfırdan eğitmek genellikle büyük miktarda veri ve bilgi işlem kaynağı gerektirir. Transfer öğrenimi, ilgili bir görev için önceden eğitilmiş bir modelin bir parçasını alıp yeni bir modelde yeniden kullanarak bunun çoğunu kısaltan bir tekniktir.
Örneğin, bu bölümdeki bir sonraki öğretici, görüntülerdeki binlerce farklı türde nesneyi tanımak için zaten eğitilmiş bir modelden yararlanan kendi görüntü tanıyıcınızı nasıl oluşturacağınızı gösterecektir. Gerekli orijinal modelden çok daha az eğitim verisi kullanarak kendi görüntü sınıflarınızı algılamak için önceden eğitilmiş modeldeki mevcut bilgileri uyarlayabilirsiniz.
Bu, tarayıcılar ve mobil cihazlar gibi kısıtlı kaynaklara sahip ortamlarda modelleri özelleştirmenin yanı sıra hızla yeni modeller geliştirmek için kullanışlıdır.
Transfer öğrenimi yaparken çoğunlukla orijinal modelin ağırlıklarını ayarlamayız. Bunun yerine, son katmanı kaldırıyoruz ve budanmış modelin çıktısının üzerine yeni (genellikle oldukça sığ) bir model eğitiyoruz. Bu bölümdeki eğitimlerde gösterildiğini göreceğiniz teknik budur:
TensorFlow.js kullanarak öğrenmeyi aktarmanın ek bir örneği için bkz. Önceden eğitilmiş bir model kullanma .
Aksi belirtilmediği sürece bu sayfanın içeriği Creative Commons Atıf 4.0 Lisansı altında ve kod örnekleri Apache 2.0 Lisansı altında lisanslanmıştır. Ayrıntılı bilgi için Google Developers Site Politikaları'na göz atın. Java, Oracle ve/veya satış ortaklarının tescilli ticari markasıdır.
Son güncelleme tarihi: 2025-07-25 UTC.
[null,null,["Son güncelleme tarihi: 2025-07-25 UTC."],[],[],null,["# What is transfer learning?\n\n\u003cbr /\u003e\n\nSophisticated deep learning models have millions of parameters (weights), and\ntraining them from scratch often requires large amounts of data and computing\nresources. Transfer learning is a technique that shortcuts much of this by\ntaking a piece of a model that has already been trained on a related task and\nreusing it in a new model.\n\nFor example, the next tutorial in this section will show you how to build your\nown image recognizer that takes advantage of a model that was already trained to\nrecognize 1000s of different kinds of objects within images. You can adapt the\nexisting knowledge in the pre-trained model to detect your own image classes\nusing much less training data than the original model required.\n\nThis is useful for rapidly developing new models as well as customizing models\nin resource-constrained environments like browsers and mobile devices.\n\nMost often when doing transfer learning, we don't adjust the weights of the\noriginal model. Instead we remove the final layer and train a new (often fairly\nshallow) model on top of the output of the truncated model. This is the\ntechnique you will see demonstrated in the tutorials in this section:\n\n- [Build a transfer-learning based image classifier](/js/tutorials/transfer/image_classification)\n- [Build a transfer-learning based audio recognizer](/js/tutorials/transfer/audio_recognizer)\n\nFor an additional example of transfer learning using TensorFlow.js, see\n[Use a pre-trained model](/js/tutorials/conversion/pretrained_model)."]]