Zadbaj o dobrą organizację dzięki kolekcji
Zapisuj i kategoryzuj treści zgodnie ze swoimi preferencjami.
Firebase Machine Learning
plat_iosplat_androidplat_flutter
Wykorzystuj systemy uczące się w aplikacjach, aby rozwiązywać rzeczywiste problemy.
Firebase Machine Learning to mobilny pakiet SDK, który udostępnia w aplikacjach na Androida i iOS zaawansowane, ale łatwe w użyciu funkcje uczenia maszynowego Google. Niezależnie od tego, czy dopiero zaczynasz przygodę z uczeniem maszynowym, czy masz już doświadczenie w tej dziedzinie, możesz wdrożyć potrzebne funkcje za pomocą zaledwie kilku wierszy kodu. Aby zacząć, nie musisz mieć dogłębnej wiedzy o sieciach neuronowych ani optymalizacji modeli. Z drugiej strony, jeśli jesteś doświadczonym programistą ML, Firebase ML udostępnia wygodne interfejsy API, które pomagają używać niestandardowych modeli TensorFlow Lite w aplikacjach mobilnych.
Najważniejsze funkcje
Hostowanie i wdrażanie modeli niestandardowych
Używaj własnych modeli TensorFlow Lite do wnioskowania na urządzeniu. Wystarczy wdrożyć model w Firebase, a my zajmiemy się jego hostowaniem i udostępnianiem w Twojej aplikacji. Firebase będzie dynamicznie udostępniać użytkownikom najnowszą wersję modelu, co pozwoli Ci regularnie go aktualizować bez konieczności publikowania nowej wersji aplikacji.
Gdy używasz Firebase ML z Remote Config, możesz wyświetlać różne modele w różnych segmentach użytkowników, a dzięki A/B Testing możesz przeprowadzać eksperymenty, aby znaleźć model o najlepszych wynikach (patrz przewodniki dotyczące Apple i Androida).
Gotowe do użycia w typowych przypadkach
Firebase ML zawiera zestaw gotowych do użycia interfejsów API do typowych zastosowań mobilnych: rozpoznawania tekstu, etykietowania obrazów i identyfikowania punktów orientacyjnych.
Wystarczy przekazać dane do biblioteki Firebase ML, a ona dostarczy Ci potrzebne informacje. Te interfejsy API wykorzystują technologię uczenia maszynowego Google Cloud, aby zapewnić najwyższy poziom dokładności.
Chmura a urządzenie
Firebase ML ma interfejsy API, które działają w chmurze lub na urządzeniu.
Gdy opisujemy interfejs ML API jako interfejs API w chmurze lub interfejs API na urządzeniu, określamy, które urządzenie przeprowadza wnioskowanie, czyli które urządzenie używa modelu ML do odkrywania informacji o dostarczonych przez Ciebie danych. W Firebase ML dzieje się to na Google Cloud lub na urządzeniach mobilnych użytkowników.
Interfejsy API do rozpoznawania tekstu, etykietowania obrazów i rozpoznawania punktów orientacyjnych przeprowadzają wnioskowanie w chmurze. Modele te mają większą moc obliczeniową i więcej pamięci niż porównywalny model na urządzeniu, dzięki czemu mogą przeprowadzać wnioskowanie z większą dokładnością i precyzją niż model na urządzeniu.
Z drugiej strony każde żądanie do tych interfejsów API wymaga podróży w obie strony w sieci, co sprawia, że nie nadają się one do aplikacji działających w czasie rzeczywistym i wymagających niskiego opóźnienia, takich jak przetwarzanie wideo.
Interfejsy API modeli niestandardowych obsługują modele uczenia maszynowego, które działają na urządzeniu. Modele używane i tworzone przez te funkcje to modele TensorFlow Lite, które są zoptymalizowane pod kątem działania na urządzeniach mobilnych. Największą zaletą tych modeli jest to, że nie wymagają połączenia sieciowego i mogą działać bardzo szybko – na przykład wystarczająco szybko, aby przetwarzać klatki wideo w czasie rzeczywistym.
Firebase ML umożliwia wdrażanie modeli niestandardowych na urządzeniach użytkowników przez przesyłanie ich na nasze serwery. Aplikacja z obsługą Firebase pobierze model na urządzenie na żądanie. Dzięki temu początkowy rozmiar instalacji aplikacji będzie niewielki, a modelu ML możesz używać zamiennie bez konieczności ponownego publikowania aplikacji.
ML Kit: gotowe do użycia modele na urządzeniu
Jeśli szukasz wstępnie wytrenowanych modeli, które działają na urządzeniu, zapoznaj się z ML Kit. ML Kit jest dostępny na iOS i Androida i ma interfejsy API do wielu zastosowań:
[[["Łatwo zrozumieć","easyToUnderstand","thumb-up"],["Rozwiązało to mój problem","solvedMyProblem","thumb-up"],["Inne","otherUp","thumb-up"]],[["Brak potrzebnych mi informacji","missingTheInformationINeed","thumb-down"],["Zbyt skomplikowane / zbyt wiele czynności do wykonania","tooComplicatedTooManySteps","thumb-down"],["Nieaktualne treści","outOfDate","thumb-down"],["Problem z tłumaczeniem","translationIssue","thumb-down"],["Problem z przykładami/kodem","samplesCodeIssue","thumb-down"],["Inne","otherDown","thumb-down"]],["Ostatnia aktualizacja: 2025-08-23 UTC."],[],[],null,["Firebase Machine Learning \nplat_ios plat_android plat_flutter \nUse machine learning in your apps to solve real-world problems. \n\nFirebase Machine Learning is a mobile SDK that brings Google's machine\nlearning expertise to Android and Apple apps in a powerful yet easy-to-use\npackage. Whether you're new or experienced in machine learning, you can\nimplement the functionality you need in just a few lines of code. There's no\nneed to have deep knowledge of neural networks or model optimization to get\nstarted. On the other hand, if you are an experienced ML developer,\nFirebase ML provides convenient APIs that help you use your custom\nTensorFlow Lite models in your mobile apps.\n| This is a beta release of Firebase ML. This API might be changed in backward-incompatible ways and is not subject to any SLA or deprecation policy.\n\nKey capabilities\n\n|---------------------------------------|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| Host and deploy custom models | Use your own TensorFlow Lite models for on-device inference. Just deploy your model to Firebase, and we'll take care of hosting and serving it to your app. Firebase will dynamically serve the latest version of the model to your users, allowing you to regularly update them without having to push a new version of your app to users. When you use Firebase ML with [Remote Config](/docs/remote-config), you can serve different models to different user segments, and with [A/B Testing](/docs/ab-testing), you can run experiments to find the best performing model (see the [Apple](/docs/ml/ios/ab-test-models) and [Android](/docs/ml/android/ab-test-models) guides). |\n| Production-ready for common use cases | Firebase ML comes with a set of ready-to-use APIs for common mobile use cases: recognizing text, labeling images, and identifying landmarks. Simply pass in data to the Firebase ML library and it gives you the information you need. These APIs leverage the power of Google Cloud's machine learning technology to give you the highest level of accuracy. |\n\nCloud vs. on-device\n\nFirebase ML has APIs that work either in the cloud or on the device.\nWhen we describe an ML API as being a cloud API or on-device API, we are\ndescribing *which machine performs inference* : that is, which machine uses the\nML model to discover insights about the data you provide it. In Firebase ML,\nthis happens either on Google Cloud, or on your users' mobile devices.\n\nThe text recognition, image labeling, and landmark recognition APIs perform\ninference in the cloud. These models have more computational power and memory\navailable to them than a comparable on-device model, and as a result, can\nperform inference with greater accuracy and precision than an on-device model.\nOn the other hand, every request to these APIs requires a network round-trip,\nwhich makes them unsuitable for real-time and low-latency applications such as\nvideo processing.\n\nThe custom model APIs deal with ML models that run on the\ndevice. The models used and produced by these features are\n[TensorFlow Lite](https://tensorflow.org/lite) models, which are\noptimized to run on mobile devices. The biggest advantage to these models is\nthat they don't require a network connection and can run very quickly---fast\nenough, for example, to process frames of video in real time.\n\nFirebase ML provides\nthe ability to deploy custom models to your users' devices by\nuploading them to our servers. Your Firebase-enabled app will download the\nmodel to the device on demand. This allows you to keep your app's initial\ninstall size small, and you can swap the ML model without having to republish\nyour app.\n\nML Kit: Ready-to-use on-device models On June 3, 2020, we started offering ML Kit's on-device APIs through a\n| [new\n| standalone SDK](https://developers.google.com/ml-kit).\n| Google Cloud APIs and custom model deployment will\n| continue to be available through Firebase Machine Learning.\n\nIf you're looking for pre-trained models that run on the device, check out\n[ML Kit](https://developers.google.com/ml-kit). ML Kit is available\nfor iOS and Android, and has APIs for many use cases:\n\n- Text recognition\n- Image labeling\n- Object detection and tracking\n- Face detection and contour tracing\n- Barcode scanning\n- Language identification\n- Translation\n- Smart Reply\n\nNext steps\n\n- Explore the ready-to-use APIs: [text recognition](/docs/ml/recognize-text), [image labeling](/docs/ml/label-images), and [landmark recognition](/docs/ml/recognize-landmarks).\n- Learn about using mobile-optimized [custom models](/docs/ml/use-custom-models) in your app."]]