Diese Seite wurde von der Cloud Translation API übersetzt.
Switch to English

Stellen Sie Modelle für maschinelles Lernen auf Mobil- und IoT-Geräten bereit

TensorFlow Lite ist ein Open-Source-Deep-Learning-Framework für Inferenz auf dem Gerät.

Siehe die Anleitung

Anleitungen erläutern die Konzepte und Komponenten von TensorFlow Lite.

Siehe Beispiele

Entdecken Sie TensorFlow Lite Android- und iOS-Apps.

Siehe Modelle

Stellen Sie einfach vorgefertigte Modelle bereit.

Wie es funktioniert

Wählen Sie ein Modell

Wählen Sie ein neues Modell oder trainieren Sie ein vorhandenes neu.

Konvertieren

Konvertieren Sie ein TensorFlow-Modell mit dem TensorFlow Lite Converter in einen komprimierten flachen Puffer.

Bereitstellen

Nehmen Sie die komprimierte .tflite-Datei und laden Sie sie auf ein mobiles oder eingebettetes Gerät.

Optimieren

Quantisieren Sie, indem Sie 32-Bit-Floats in effizientere 8-Bit-Ganzzahlen konvertieren oder auf einer GPU ausführen.

Lösungen für häufig auftretende Probleme

Entdecken Sie optimierte Modelle, um bei gängigen Anwendungsfällen für Mobilgeräte und Edge-Anwendungen zu helfen.

Bildklassifizierung

Identifizieren Sie Hunderte von Objekten, einschließlich Menschen, Aktivitäten, Tieren, Pflanzen und Orten.

Objekterkennung

Erkennen Sie mehrere Objekte mit Begrenzungsrahmen. Ja, auch Hunde und Katzen.

Beantwortung der Frage

Verwenden Sie ein modernes Modell in natürlicher Sprache, um Fragen zu beantworten, die auf dem Inhalt einer bestimmten Textpassage mit BERT basieren.

Nachrichten & Ankündigungen

Weitere Updates finden Sie in unserem Blog. Abonnieren Sie unseren monatlichen TensorFlow-Newsletter, um die neuesten Ankündigungen direkt an Ihren Posteingang zu senden.