Firebase Machine Learning

Nutzen Sie maschinelles Lernen in Ihren Apps, um reale Probleme zu lösen.

Firebase Machine Learning ist ein mobiles SDK, das die Maschinen von Google in einer leistungsstarken und dennoch benutzerfreundlichen App Paket. Egal, ob Sie neu im Bereich maschinelles Lernen sind oder bereits Erfahrung haben, Sie können die benötigten Funktionen mit nur wenigen Codezeilen implementieren. Es gibt keine müssen Sie über fundierte Kenntnisse von neuronalen Netzwerken oder der Modelloptimierung verfügen, begonnen. Wenn Sie dagegen ein erfahrener ML-Entwickler sind, Firebase ML bietet praktische APIs, mit denen Sie Ihre benutzerdefinierten TensorFlow Lite-Modelle in Ihren mobilen Apps verwenden.

Hauptmerkmale

Benutzerdefinierte Modelle hosten und bereitstellen

Verwenden Sie Ihre eigenen TensorFlow Lite-Modelle für Inferenz auf dem Gerät. Nur Stellen Sie Ihr Modell in Firebase bereit und in Ihrer App bereitstellen. Firebase stellt dynamisch die neuesten Version des Modells an Ihre Nutzer, sodass Sie sie regelmäßig aktualisieren können, ohne eine neue Version Ihrer App für die Nutzer bereitstellen zu müssen.

Bei Verwendung von Firebase ML mit Remote Config können Sie verschiedenen Nutzern unterschiedliche Modelle Segmente erstellen. Mit A/B Testing können Tests ausführen, um das Modell mit der besten Leistung zu ermitteln (siehe Apple und Android-Anleitungen).

Serienreif für häufige Anwendungsfälle

Firebase ML enthält eine Reihe gebrauchsfertiger APIs für gängige Mobilgeräte Anwendungsfälle: Texterkennung, Beschriftung von Bildern und Identifizieren von Sehenswürdigkeiten. Übergeben Sie einfach Daten an die Firebase ML-Bibliothek. Informationen, die Sie benötigen. Diese APIs nutzen die Möglichkeiten der Google Cloud-Technologie für maschinelles Lernen, um eine hohe Genauigkeit zu erreichen.

Cloud-basiertes und On-Device-Modell

Firebase ML hat APIs, die entweder in der Cloud oder auf dem Gerät funktionieren. Wenn wir eine ML-API als Cloud- oder On-Device-API beschreiben, beschreiben, welche Maschine eine Inferenz durchführt, also welche Maschine die ML-Modell, um Erkenntnisse über die von Ihnen bereitgestellten Daten zu gewinnen. Im Firebase ML, Dies geschieht entweder am Google Cloud oder auf dem Mobilgeräten.

Die APIs für die Texterkennung, Bildbeschriftung und Landmark-Erkennung führen Inferenzen in der Cloud durch. Diese Modelle haben mehr Rechenleistung und Speicher. als ein vergleichbares On-Device-Modell, und können höhere Genauigkeit als bei einem On-Device-Modell. Für jede Anfrage an diese APIs ist ein Netzwerk-Roundtrip erforderlich. Dadurch sind sie für Echtzeitanwendungen und Anwendungen mit niedriger Latenz wie Videoverarbeitung.

Bei den APIs für benutzerdefinierte Modelle handelt es sich um ML-Modelle, die auf dem . Die von diesen Funktionen verwendeten und produzierten Modelle sind TensorFlow Lite-Modelle, die für Mobilgeräte optimiert ist. Der größte Vorteil dieser Modelle dass keine Netzwerkverbindung erforderlich ist und sie sehr schnell, d. h. schnell, funktionieren. um Frames von Videos in Echtzeit zu verarbeiten.

Firebase ML bietet die Möglichkeit, benutzerdefinierte Modelle für die Geräte nach auf unsere Server hochladen. Ihre Firebase-fähige App lädt an das Gerät bei Bedarf anpassen. So können Sie die Anfangsbuchstaben Ihrer App die Installationsgröße gering ist und Sie das ML-Modell austauschen können, ohne für Ihre App.

ML Kit: Einsatzbereite On-Device-Modelle

Vortrainierte Modelle, die auf dem Gerät ausgeführt werden, finden Sie in ML Kit. ML Kit ist für iOS und Android verfügbar und bietet APIs für viele Anwendungsfälle:

  • Texterkennung
  • Bildbeschriftung
  • Objekterkennung und -tracking
  • Gesichtserkennung und Konturverfolgung
  • Barcode-Scan
  • Spracherkennung
  • Übersetzung
  • Intelligente Antwort

Nächste Schritte