Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Firebase Machine Learning
plat_iosplat_androidplat_flutter
Nutzen Sie maschinelles Lernen in Ihren Apps, um reale Probleme zu lösen.
Firebase Machine Learning ist ein mobiles SDK, mit dem Sie die Technologie für das maschinelle Lernen von Google in einem leistungsstarken und dennoch benutzerfreundlichen Paket einfach auf Android- und Apple-Apps anwenden können. Ganz gleich, ob Sie neu im Bereich des maschinellen Lernens sind oder bereits Erfahrung damit haben, können Sie die benötigte Funktionalität mit nur wenigen Codezeilen implementieren. Sie benötigen keine umfassenden Kenntnisse über neuronale Netze oder Modelloptimierung, um loszulegen. Wenn Sie hingegen ein erfahrener ML-Entwickler sind, bietet Firebase ML praktische APIs, mit denen Sie Ihre benutzerdefinierten TensorFlow Lite-Modelle in Ihren mobilen Apps verwenden können.
Hauptmerkmale
Benutzerdefinierte Modelle hosten und bereitstellen
Eigene TensorFlow Lite-Modelle für die Inferenz auf dem Gerät verwenden Stellen Sie Ihr Modell einfach in Firebase bereit. Wir kümmern uns um das Hosting und die Bereitstellung für Ihre App. Firebase stellt Ihren Nutzern dynamisch die neueste Version des Modells zur Verfügung. So können Sie es regelmäßig aktualisieren, ohne eine neue Version Ihrer App für Nutzer bereitstellen zu müssen.
Wenn Sie Firebase ML mit Remote Config verwenden, können Sie verschiedenen Nutzersegmenten unterschiedliche Modelle bereitstellen. Mit A/B Testing können Sie Tests durchführen, um das leistungsstärkste Modell zu ermitteln (siehe die Anleitungen für Apple und Android).
Für gängige Anwendungsfälle produktionsreif
Firebase ML bietet eine Reihe von sofort einsatzbereiten APIs für gängige mobile Anwendungsfälle: Texterkennung, Bildkennzeichnung und Identifizierung von Sehenswürdigkeiten.
Sie müssen nur Daten an die Firebase ML-Bibliothek übergeben und erhalten dann die benötigten Informationen. Diese APIs nutzen die Leistungsfähigkeit der Google Cloud-Technologie für maschinelles Lernen, um Ihnen ein Höchstmaß an Genauigkeit zu bieten.
Cloud vs. On-Device
Firebase ML bietet APIs, die entweder in der Cloud oder auf dem Gerät funktionieren.
Wenn wir eine ML API als Cloud-API oder On-Device-API bezeichnen, beschreiben wir, auf welchem Gerät die Inferenz ausgeführt wird. Das heißt, auf welchem Gerät das ML-Modell verwendet wird, um Erkenntnisse aus den von Ihnen bereitgestellten Daten zu gewinnen. In Firebase ML geschieht dies entweder auf Google Cloud oder auf den Mobilgeräten Ihrer Nutzer.
Die APIs für Texterkennung, Bildkennzeichnung und Landmarkenerkennung führen die Inferenz in der Cloud aus. Diese Modelle haben mehr Rechenleistung und Arbeitsspeicher zur Verfügung als ein vergleichbares On-Device-Modell und können daher Inferenz mit höherer Genauigkeit und Präzision durchführen.
Andererseits erfordert jede Anfrage an diese APIs einen Netzwerk-Roundtrip, was sie für Echtzeit- und Low-Latency-Anwendungen wie die Videoverarbeitung ungeeignet macht.
Die APIs für benutzerdefinierte Modelle beziehen sich auf ML-Modelle, die auf dem Gerät ausgeführt werden. Die von diesen Funktionen verwendeten und erstellten Modelle sind TensorFlow Lite-Modelle, die für die Ausführung auf Mobilgeräten optimiert sind. Der größte Vorteil dieser Modelle ist, dass sie keine Netzwerkverbindung benötigen und sehr schnell ausgeführt werden können – schnell genug, um beispielsweise Videoframes in Echtzeit zu verarbeiten.
Mit Firebase ML können Sie benutzerdefinierte Modelle auf den Geräten Ihrer Nutzer bereitstellen, indem Sie sie auf unsere Server hochladen. Ihre Firebase-fähige App lädt das Modell bei Bedarf auf das Gerät herunter. So können Sie die ursprüngliche Installationsgröße Ihrer App gering halten und das ML-Modell austauschen, ohne Ihre App neu veröffentlichen zu müssen.
ML Kit: Sofort einsatzbereite On-Device-Modelle
Wenn Sie nach vortrainierten Modellen suchen, die auf dem Gerät ausgeführt werden, sehen Sie sich ML Kit an. ML Kit ist für iOS und Android verfügbar und bietet APIs für viele Anwendungsfälle:
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Benötigte Informationen nicht gefunden","missingTheInformationINeed","thumb-down"],["Zu umständlich/zu viele Schritte","tooComplicatedTooManySteps","thumb-down"],["Nicht mehr aktuell","outOfDate","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Problem mit Beispielen/Code","samplesCodeIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-08-23 (UTC)."],[],[],null,["Firebase Machine Learning \nplat_ios plat_android plat_flutter \nUse machine learning in your apps to solve real-world problems. \n\nFirebase Machine Learning is a mobile SDK that brings Google's machine\nlearning expertise to Android and Apple apps in a powerful yet easy-to-use\npackage. Whether you're new or experienced in machine learning, you can\nimplement the functionality you need in just a few lines of code. There's no\nneed to have deep knowledge of neural networks or model optimization to get\nstarted. On the other hand, if you are an experienced ML developer,\nFirebase ML provides convenient APIs that help you use your custom\nTensorFlow Lite models in your mobile apps.\n| This is a beta release of Firebase ML. This API might be changed in backward-incompatible ways and is not subject to any SLA or deprecation policy.\n\nKey capabilities\n\n|---------------------------------------|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| Host and deploy custom models | Use your own TensorFlow Lite models for on-device inference. Just deploy your model to Firebase, and we'll take care of hosting and serving it to your app. Firebase will dynamically serve the latest version of the model to your users, allowing you to regularly update them without having to push a new version of your app to users. When you use Firebase ML with [Remote Config](/docs/remote-config), you can serve different models to different user segments, and with [A/B Testing](/docs/ab-testing), you can run experiments to find the best performing model (see the [Apple](/docs/ml/ios/ab-test-models) and [Android](/docs/ml/android/ab-test-models) guides). |\n| Production-ready for common use cases | Firebase ML comes with a set of ready-to-use APIs for common mobile use cases: recognizing text, labeling images, and identifying landmarks. Simply pass in data to the Firebase ML library and it gives you the information you need. These APIs leverage the power of Google Cloud's machine learning technology to give you the highest level of accuracy. |\n\nCloud vs. on-device\n\nFirebase ML has APIs that work either in the cloud or on the device.\nWhen we describe an ML API as being a cloud API or on-device API, we are\ndescribing *which machine performs inference* : that is, which machine uses the\nML model to discover insights about the data you provide it. In Firebase ML,\nthis happens either on Google Cloud, or on your users' mobile devices.\n\nThe text recognition, image labeling, and landmark recognition APIs perform\ninference in the cloud. These models have more computational power and memory\navailable to them than a comparable on-device model, and as a result, can\nperform inference with greater accuracy and precision than an on-device model.\nOn the other hand, every request to these APIs requires a network round-trip,\nwhich makes them unsuitable for real-time and low-latency applications such as\nvideo processing.\n\nThe custom model APIs deal with ML models that run on the\ndevice. The models used and produced by these features are\n[TensorFlow Lite](https://tensorflow.org/lite) models, which are\noptimized to run on mobile devices. The biggest advantage to these models is\nthat they don't require a network connection and can run very quickly---fast\nenough, for example, to process frames of video in real time.\n\nFirebase ML provides\nthe ability to deploy custom models to your users' devices by\nuploading them to our servers. Your Firebase-enabled app will download the\nmodel to the device on demand. This allows you to keep your app's initial\ninstall size small, and you can swap the ML model without having to republish\nyour app.\n\nML Kit: Ready-to-use on-device models On June 3, 2020, we started offering ML Kit's on-device APIs through a\n| [new\n| standalone SDK](https://developers.google.com/ml-kit).\n| Google Cloud APIs and custom model deployment will\n| continue to be available through Firebase Machine Learning.\n\nIf you're looking for pre-trained models that run on the device, check out\n[ML Kit](https://developers.google.com/ml-kit). ML Kit is available\nfor iOS and Android, and has APIs for many use cases:\n\n- Text recognition\n- Image labeling\n- Object detection and tracking\n- Face detection and contour tracing\n- Barcode scanning\n- Language identification\n- Translation\n- Smart Reply\n\nNext steps\n\n- Explore the ready-to-use APIs: [text recognition](/docs/ml/recognize-text), [image labeling](/docs/ml/label-images), and [landmark recognition](/docs/ml/recognize-landmarks).\n- Learn about using mobile-optimized [custom models](/docs/ml/use-custom-models) in your app."]]