Baru dalam pembelajaran mesin? Tonton video kursus untuk mendapatkan pengetahuan praktis tentang ML menggunakan teknologi web
View series
Apa itu pembelajaran transfer?
Tetap teratur dengan koleksi
Simpan dan kategorikan konten berdasarkan preferensi Anda.
Model pembelajaran mendalam yang canggih memiliki jutaan parameter (bobot), dan melatihnya dari awal seringkali membutuhkan data dan sumber daya komputasi dalam jumlah besar. Pembelajaran transfer adalah teknik yang mempersingkat sebagian besar dari ini dengan mengambil bagian dari model yang telah dilatih pada tugas terkait dan menggunakannya kembali dalam model baru.
Misalnya, tutorial berikutnya di bagian ini akan menunjukkan cara membuat pengenal gambar Anda sendiri yang memanfaatkan model yang sudah dilatih untuk mengenali 1000 jenis objek berbeda di dalam gambar. Anda dapat mengadaptasi pengetahuan yang ada dalam model terlatih untuk mendeteksi kelas gambar Anda sendiri menggunakan data pelatihan yang jauh lebih sedikit daripada yang diperlukan model asli.
Ini berguna untuk mengembangkan model baru dengan cepat serta menyesuaikan model di lingkungan dengan sumber daya terbatas seperti browser dan perangkat seluler.
Paling sering saat melakukan pembelajaran transfer, kami tidak menyesuaikan bobot model aslinya. Alih-alih, kami menghapus lapisan terakhir dan melatih model baru (sering kali cukup dangkal) di atas keluaran model terpotong. Ini adalah teknik yang akan Anda lihat didemonstrasikan dalam tutorial di bagian ini:
Untuk contoh tambahan pembelajaran transfer menggunakan TensorFlow.js, lihat Menggunakan model terlatih .
Kecuali dinyatakan lain, konten di halaman ini dilisensikan berdasarkan Lisensi Creative Commons Attribution 4.0, sedangkan contoh kode dilisensikan berdasarkan Lisensi Apache 2.0. Untuk mengetahui informasi selengkapnya, lihat Kebijakan Situs Google Developers. Java adalah merek dagang terdaftar dari Oracle dan/atau afiliasinya.
Terakhir diperbarui pada 2025-07-25 UTC.
[null,null,["Terakhir diperbarui pada 2025-07-25 UTC."],[],[],null,["# What is transfer learning?\n\n\u003cbr /\u003e\n\nSophisticated deep learning models have millions of parameters (weights), and\ntraining them from scratch often requires large amounts of data and computing\nresources. Transfer learning is a technique that shortcuts much of this by\ntaking a piece of a model that has already been trained on a related task and\nreusing it in a new model.\n\nFor example, the next tutorial in this section will show you how to build your\nown image recognizer that takes advantage of a model that was already trained to\nrecognize 1000s of different kinds of objects within images. You can adapt the\nexisting knowledge in the pre-trained model to detect your own image classes\nusing much less training data than the original model required.\n\nThis is useful for rapidly developing new models as well as customizing models\nin resource-constrained environments like browsers and mobile devices.\n\nMost often when doing transfer learning, we don't adjust the weights of the\noriginal model. Instead we remove the final layer and train a new (often fairly\nshallow) model on top of the output of the truncated model. This is the\ntechnique you will see demonstrated in the tutorials in this section:\n\n- [Build a transfer-learning based image classifier](/js/tutorials/transfer/image_classification)\n- [Build a transfer-learning based audio recognizer](/js/tutorials/transfer/audio_recognizer)\n\nFor an additional example of transfer learning using TensorFlow.js, see\n[Use a pre-trained model](/js/tutorials/conversion/pretrained_model)."]]