ยังใหม่กับแมชชีนเลิร์นนิงใช่ไหม ดูหลักสูตรวิดีโอเพื่อรับความรู้ในการทำงานจริงของ ML โดยใช้เทคโนโลยีเว็บ
ดูซีรีส์
การถ่ายโอนการเรียนรู้คืออะไร?
จัดทุกอย่างให้เป็นระเบียบอยู่เสมอด้วยคอลเล็กชัน
บันทึกและจัดหมวดหมู่เนื้อหาตามค่ากำหนดของคุณ
โมเดลการเรียนรู้เชิงลึกที่ซับซ้อนมีพารามิเตอร์ (น้ำหนัก) นับล้าน และการฝึกอบรมตั้งแต่เริ่มต้นมักจะต้องใช้ข้อมูลและทรัพยากรคอมพิวเตอร์จำนวนมาก การถ่ายโอนการเรียนรู้เป็นเทคนิคที่ใช้ทางลัดโดยนำชิ้นส่วนของแบบจำลองที่ได้รับการฝึกอบรมเกี่ยวกับงานที่เกี่ยวข้องแล้วมาใช้ซ้ำในแบบจำลองใหม่
ตัวอย่างเช่น บทช่วยสอนถัดไปในส่วนนี้จะแสดงให้คุณเห็นถึงวิธีสร้างตัวจดจำรูปภาพของคุณเองที่ใช้ประโยชน์จากโมเดลที่ได้รับการฝึกอบรมมาแล้วเพื่อจดจำวัตถุประเภทต่างๆ กว่า 1,000 ชนิดภายในรูปภาพ คุณสามารถปรับความรู้ที่มีอยู่ในโมเดลที่ฝึกไว้ล่วงหน้าเพื่อตรวจหาคลาสภาพของคุณเองโดยใช้ข้อมูลการฝึกน้อยกว่าโมเดลเดิมที่ต้องใช้มาก
สิ่งนี้มีประโยชน์สำหรับการพัฒนาโมเดลใหม่อย่างรวดเร็ว ตลอดจนการปรับแต่งโมเดลในสภาพแวดล้อมที่มีทรัพยากรจำกัด เช่น เบราว์เซอร์และอุปกรณ์พกพา
บ่อยครั้งเมื่อทำการถ่ายโอนการเรียนรู้ เราไม่ได้ปรับน้ำหนักของโมเดลเดิม แต่เราลบเลเยอร์สุดท้ายออกและฝึกโมเดลใหม่ (มักจะค่อนข้างตื้น) ที่ด้านบนของเอาต์พุตของโมเดลที่ถูกตัดออก นี่คือเทคนิคที่คุณจะเห็นในบทช่วยสอนในส่วนนี้:
สำหรับตัวอย่างเพิ่มเติมของการถ่ายโอนการเรียนรู้โดยใช้ TensorFlow.js โปรดดู ที่ ใช้โมเดลที่ฝึกไว้ล่วงหน้า
เนื้อหาของหน้าเว็บนี้ได้รับอนุญาตภายใต้ใบอนุญาตที่ต้องระบุที่มาของครีเอทีฟคอมมอนส์ 4.0 และตัวอย่างโค้ดได้รับอนุญาตภายใต้ใบอนุญาต Apache 2.0 เว้นแต่จะระบุไว้เป็นอย่างอื่น โปรดดูรายละเอียดที่นโยบายเว็บไซต์ Google Developers Java เป็นเครื่องหมายการค้าจดทะเบียนของ Oracle และ/หรือบริษัทในเครือ
อัปเดตล่าสุด 2025-07-25 UTC
[null,null,["อัปเดตล่าสุด 2025-07-25 UTC"],[],[],null,["# What is transfer learning?\n\n\u003cbr /\u003e\n\nSophisticated deep learning models have millions of parameters (weights), and\ntraining them from scratch often requires large amounts of data and computing\nresources. Transfer learning is a technique that shortcuts much of this by\ntaking a piece of a model that has already been trained on a related task and\nreusing it in a new model.\n\nFor example, the next tutorial in this section will show you how to build your\nown image recognizer that takes advantage of a model that was already trained to\nrecognize 1000s of different kinds of objects within images. You can adapt the\nexisting knowledge in the pre-trained model to detect your own image classes\nusing much less training data than the original model required.\n\nThis is useful for rapidly developing new models as well as customizing models\nin resource-constrained environments like browsers and mobile devices.\n\nMost often when doing transfer learning, we don't adjust the weights of the\noriginal model. Instead we remove the final layer and train a new (often fairly\nshallow) model on top of the output of the truncated model. This is the\ntechnique you will see demonstrated in the tutorials in this section:\n\n- [Build a transfer-learning based image classifier](/js/tutorials/transfer/image_classification)\n- [Build a transfer-learning based audio recognizer](/js/tutorials/transfer/audio_recognizer)\n\nFor an additional example of transfer learning using TensorFlow.js, see\n[Use a pre-trained model](/js/tutorials/conversion/pretrained_model)."]]