RSVP für Ihr lokales TensorFlow Everywhere-Event noch heute!
Diese Seite wurde von der Cloud Translation API übersetzt.
Switch to English

Bereitstellen von Modellen für maschinelles Lernen auf Mobil- und IoT-Geräten

TensorFlow Lite ist ein Open-Source-Deep-Learning-Framework für Inferenz auf dem Gerät.

Siehe die Anleitung

Anleitungen erläutern die Konzepte und Komponenten von TensorFlow Lite.

Siehe Beispiele

Entdecken Sie TensorFlow Lite Android- und iOS-Apps.

Siehe Tutorials

Erfahren Sie, wie Sie TensorFlow Lite für allgemeine Anwendungsfälle verwenden.

Wie es funktioniert

Wählen Sie ein Modell

Wählen Sie ein neues Modell oder trainieren Sie ein vorhandenes neu.

Konvertieren

Konvertieren Sie ein TensorFlow-Modell mit dem TensorFlow Lite Converter in einen komprimierten flachen Puffer.

Bereitstellen

Nehmen Sie die komprimierte .tflite-Datei und laden Sie sie auf ein mobiles oder eingebettetes Gerät.

Optimieren

Quantisieren Sie, indem Sie 32-Bit-Floats in effizientere 8-Bit-Ganzzahlen konvertieren oder auf einer GPU ausführen.

Lösungen für häufig auftretende Probleme

Entdecken Sie optimierte Modelle, um bei gängigen Anwendungsfällen für Mobilgeräte und Edge-Anwendungen zu helfen.

Bildklassifizierung

Identifizieren Sie Hunderte von Objekten, einschließlich Menschen, Aktivitäten, Tieren, Pflanzen und Orten.

Objekterkennung

Erkennen Sie mehrere Objekte mit Begrenzungsrahmen. Ja, auch Hunde und Katzen.

Beantwortung der Frage

Verwenden Sie ein modernes Modell in natürlicher Sprache, um Fragen zu beantworten, die auf dem Inhalt einer bestimmten Textpassage mit BERT basieren.

Nachrichten & Ankündigungen

Weitere Updates finden Sie in unserem Blog. Abonnieren Sie unseren monatlichen TensorFlow-Newsletter, um die neuesten Ankündigungen direkt an Ihren Posteingang zu senden.

10. Februar 2020  
Beschleunigte Inferenz auf Arm-Mikrocontrollern mit TensorFlow Lite für Mikrocontroller und CMSIS-NN

Die Ingenieure von Arm haben optimierte Versionen der TensorFlow Lite-Kernel entwickelt, die CMSIS-NN verwenden, um eine blitzschnelle Leistung auf Arm Cortex-M-Kernen zu erzielen.

18. Dezember 2020  
So generieren Sie Bilder mit hoher Auflösung mit TensorFlow Lite unter Android

Die Aufgabe, ein Bild mit hoher Auflösung (HR) von seinem Gegenstück mit niedriger Auflösung wiederherzustellen, wird üblicherweise als Einzelbild-Superauflösung (SISR) bezeichnet. In diesem Tutorial verwenden wir ein vorab trainiertes ESRGAN-Modell von TensorFlow Hub und generieren hochauflösende Bilder mit ...

2. Dezember 2020  
Erstellen Sie mit Teachable Machine und TFLite Soundklassifizierungsmodelle für mobile Apps

Wir freuen uns, Ihnen mitteilen zu können, dass Sie mit Teachable Machine jetzt Ihr eigenes Klangklassifizierungsmodell trainieren und im TensorFlow Lite (TFLite) -Format exportieren können. Anschließend können Sie das TFLite-Modell in Ihre mobilen Anwendungen oder Ihre IoT-Geräte integrieren. Das ist eine einfache ...

25. November 2020  
Schulung und Bereitstellung von ML-Modellen auf Edge-Geräten (TF Herbst 2020-Updates)

Erfahren Sie mit TensorFlow Lite Model Maker und Android Studio, wie Sie ein ML-Modell in nur wenigen Codezeilen in einer Android-App trainieren und bereitstellen. Von hier aus können Sie dann untersuchen, wie Sie mithilfe verschiedener Tools von Google einen Prototyp in eine Produktions-App verwandeln können. Präsentiert von...

Weiter