Was ist Transferlernen?

Anspruchsvolle Deep-Learning-Modelle haben Millionen von Parametern (Gewichten), und das Training von Grund auf erfordert häufig große Datenmengen von Computerressourcen. Transferlernen ist eine Technik, die einen Großteil davon verkürzt, indem ein Teil eines Modells, das bereits für eine verwandte Aufgabe geschult wurde, in einem neuen Modell wiederverwendet wird.

Das nächste Tutorial in diesem Abschnitt zeigt Ihnen beispielsweise, wie Sie einen eigenen Bilderkenner erstellen, der ein Modell nutzt, das bereits darauf trainiert wurde, Tausende verschiedener Arten von Objekten in Bildern zu erkennen. Sie können das vorhandene Wissen im vorab trainierten Modell anpassen, um Ihre eigenen Bildklassen mit viel weniger Trainingsdaten als im erforderlichen Originalmodell zu erkennen.

Dies ist nützlich, um schnell neue Modelle zu entwickeln und Modelle in ressourcenbeschränkten Umgebungen wie Browsern und Mobilgeräten anzupassen.

Meistens passen wir beim Transferlernen die Gewichte des Originalmodells nicht an. Stattdessen entfernen wir die letzte Ebene und trainieren ein neues (oft ziemlich flaches) Modell über der Ausgabe des abgeschnittenen Modells. Dies ist die Technik, die Sie in den Tutorials in diesem Abschnitt sehen werden.