Bạn mới học máy? Xem khóa học video để có kiến thức làm việc thực tế về ML bằng công nghệ web
Xem loạt bài
Học chuyển tiếp là gì?
Sử dụng bộ sưu tập để sắp xếp ngăn nắp các trang
Lưu và phân loại nội dung dựa trên lựa chọn ưu tiên của bạn.
Các mô hình học sâu phức tạp có hàng triệu tham số (trọng số) và việc đào tạo chúng từ đầu thường yêu cầu một lượng lớn dữ liệu và tài nguyên máy tính. Học chuyển đổi là một kỹ thuật rút ngắn phần lớn điều này bằng cách lấy một phần của mô hình đã được đào tạo về một nhiệm vụ liên quan và sử dụng lại nó trong một mô hình mới.
Ví dụ: hướng dẫn tiếp theo trong phần này sẽ chỉ cho bạn cách xây dựng trình nhận dạng hình ảnh của riêng bạn, tận dụng một mô hình đã được đào tạo để nhận dạng hàng nghìn loại đối tượng khác nhau trong hình ảnh. Bạn có thể điều chỉnh kiến thức hiện có trong mô hình được đào tạo trước để phát hiện các lớp hình ảnh của riêng mình bằng cách sử dụng dữ liệu đào tạo ít hơn nhiều so với yêu cầu của mô hình ban đầu.
Điều này hữu ích cho việc phát triển nhanh các mô hình mới cũng như tùy chỉnh các mô hình trong các môi trường hạn chế về tài nguyên như trình duyệt và thiết bị di động.
Thông thường, khi thực hiện học chuyển giao, chúng tôi không điều chỉnh trọng số của mô hình ban đầu. Thay vào đó, chúng tôi loại bỏ lớp cuối cùng và đào tạo một mô hình mới (thường khá nông) trên đầu ra của mô hình bị cắt bớt. Đây là kỹ thuật mà bạn sẽ thấy được trình bày trong các hướng dẫn trong phần này:
Để biết ví dụ bổ sung về học chuyển đổi bằng TensorFlow.js, hãy xem Sử dụng mô hình được đào tạo trước .
Trừ phi có lưu ý khác, nội dung của trang này được cấp phép theo Giấy phép ghi nhận tác giả 4.0 của Creative Commons và các mẫu mã lập trình được cấp phép theo Giấy phép Apache 2.0. Để biết thông tin chi tiết, vui lòng tham khảo Chính sách trang web của Google Developers. Java là nhãn hiệu đã đăng ký của Oracle và/hoặc các đơn vị liên kết với Oracle.
Cập nhật lần gần đây nhất: 2025-07-25 UTC.
[null,null,["Cập nhật lần gần đây nhất: 2025-07-25 UTC."],[],[],null,["# What is transfer learning?\n\n\u003cbr /\u003e\n\nSophisticated deep learning models have millions of parameters (weights), and\ntraining them from scratch often requires large amounts of data and computing\nresources. Transfer learning is a technique that shortcuts much of this by\ntaking a piece of a model that has already been trained on a related task and\nreusing it in a new model.\n\nFor example, the next tutorial in this section will show you how to build your\nown image recognizer that takes advantage of a model that was already trained to\nrecognize 1000s of different kinds of objects within images. You can adapt the\nexisting knowledge in the pre-trained model to detect your own image classes\nusing much less training data than the original model required.\n\nThis is useful for rapidly developing new models as well as customizing models\nin resource-constrained environments like browsers and mobile devices.\n\nMost often when doing transfer learning, we don't adjust the weights of the\noriginal model. Instead we remove the final layer and train a new (often fairly\nshallow) model on top of the output of the truncated model. This is the\ntechnique you will see demonstrated in the tutorials in this section:\n\n- [Build a transfer-learning based image classifier](/js/tutorials/transfer/image_classification)\n- [Build a transfer-learning based audio recognizer](/js/tutorials/transfer/audio_recognizer)\n\nFor an additional example of transfer learning using TensorFlow.js, see\n[Use a pre-trained model](/js/tutorials/conversion/pretrained_model)."]]