Mantieni tutto organizzato con le raccolte
Salva e classifica i contenuti in base alle tue preferenze.
Firebase Machine Learning
plat_iosplat_androidplat_flutter
Utilizza il machine learning nelle tue app per risolvere problemi reali.
Firebase Machine Learning è un SDK per dispositivi mobili che porta l'esperienza di machine learning di Google nelle app Android e Apple in un pacchetto potente ma facile da usare. Che tu sia un principiante o un esperto di machine learning, puoi implementare la funzionalità di cui hai bisogno in poche righe di codice. Per iniziare, non è necessario avere una conoscenza approfondita delle reti neurali o dell'ottimizzazione dei modelli. D'altra parte, se sei uno sviluppatore ML esperto,
Firebase ML fornisce API pratiche che ti aiutano a utilizzare i tuoi modelli
TensorFlow Lite personalizzati nelle tue app mobile.
Funzionalità chiave
Ospitare ed eseguire il deployment di modelli personalizzati
Utilizza i tuoi modelli TensorFlow Lite per l'inferenza on-device. Ti basterà
eseguire il deployment del modello su Firebase e noi ci occuperemo dell'hosting e
della pubblicazione nell'app. Firebase pubblicherà dinamicamente l'ultima
versione del modello per i tuoi utenti, consentendoti di aggiornarli regolarmente
senza dover pubblicare una nuova versione dell'app.
Quando utilizzi Firebase ML con Remote Config, puoi pubblicare modelli diversi per segmenti di utenti diversi e, con A/B Testing, puoi eseguire esperimenti per trovare il modello con il rendimento migliore (consulta le guide per Apple e Android).
Pronto per la produzione per i casi d'uso comuni
Firebase ML include un insieme di API pronte all'uso per i casi d'uso comuni sui dispositivi mobili: riconoscimento del testo, etichettatura delle immagini e identificazione dei punti di riferimento.
Basta passare i dati alla libreria Firebase ML e otterrai le
informazioni che ti servono. Queste API sfruttano la potenza della tecnologia di machine learning di Google Cloud per offrirti il massimo livello di precisione.
Cloud e dispositivo
Firebase ML dispone di API che funzionano nel cloud o sul dispositivo.
Quando descriviamo un'API ML come API cloud o API on-device, stiamo
descrivendo quale macchina esegue l'inferenza, ovvero quale macchina utilizza il
modello ML per scoprire approfondimenti sui dati che fornisci. In Firebase ML,
questo avviene su Google Cloud o sui dispositivi mobili degli utenti.
Le API di riconoscimento del testo, etichettatura delle immagini e riconoscimento dei punti di riferimento eseguono
l'inferenza nel cloud. Questi modelli hanno a disposizione più potenza di calcolo e memoria
rispetto a un modello on-device comparabile e, di conseguenza, possono
eseguire l'inferenza con maggiore accuratezza e precisione rispetto a un modello on-device.
D'altra parte, ogni richiesta a queste API richiede un round trip di rete,
il che le rende inadatte ad applicazioni in tempo reale e a bassa latenza come
l'elaborazione video.
Le API per modelli personalizzati gestiscono i modelli di ML eseguiti sul
dispositivo. I modelli utilizzati e prodotti da queste funzionalità sono
modelli TensorFlow Lite, ottimizzati per essere eseguiti su dispositivi mobili. Il vantaggio principale di questi modelli è che non richiedono una connessione di rete e possono essere eseguiti molto rapidamente, abbastanza velocemente, ad esempio, da elaborare i fotogrammi video in tempo reale.
Firebase ML offre
la possibilità di eseguire il deployment di modelli personalizzati sui dispositivi degli utenti
caricandoli sui nostri server. La tua app abilitata per Firebase scaricherà il
modello sul dispositivo su richiesta. In questo modo, puoi mantenere ridotte le dimensioni
dell'installazione iniziale dell'app e scambiare il modello ML senza dover ripubblicare
l'app.
ML Kit: modelli on-device pronti all'uso
Se stai cercando modelli preaddestrati che vengono eseguiti sul dispositivo, dai un'occhiata a
ML Kit. ML Kit è disponibile
per iOS e Android e dispone di API per molti casi d'uso:
[[["Facile da capire","easyToUnderstand","thumb-up"],["Il problema è stato risolto","solvedMyProblem","thumb-up"],["Altra","otherUp","thumb-up"]],[["Mancano le informazioni di cui ho bisogno","missingTheInformationINeed","thumb-down"],["Troppo complicato/troppi passaggi","tooComplicatedTooManySteps","thumb-down"],["Obsoleti","outOfDate","thumb-down"],["Problema di traduzione","translationIssue","thumb-down"],["Problema relativo a esempi/codice","samplesCodeIssue","thumb-down"],["Altra","otherDown","thumb-down"]],["Ultimo aggiornamento 2025-08-23 UTC."],[],[],null,["Firebase Machine Learning \nplat_ios plat_android plat_flutter \nUse machine learning in your apps to solve real-world problems. \n\nFirebase Machine Learning is a mobile SDK that brings Google's machine\nlearning expertise to Android and Apple apps in a powerful yet easy-to-use\npackage. Whether you're new or experienced in machine learning, you can\nimplement the functionality you need in just a few lines of code. There's no\nneed to have deep knowledge of neural networks or model optimization to get\nstarted. On the other hand, if you are an experienced ML developer,\nFirebase ML provides convenient APIs that help you use your custom\nTensorFlow Lite models in your mobile apps.\n| This is a beta release of Firebase ML. This API might be changed in backward-incompatible ways and is not subject to any SLA or deprecation policy.\n\nKey capabilities\n\n|---------------------------------------|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| Host and deploy custom models | Use your own TensorFlow Lite models for on-device inference. Just deploy your model to Firebase, and we'll take care of hosting and serving it to your app. Firebase will dynamically serve the latest version of the model to your users, allowing you to regularly update them without having to push a new version of your app to users. When you use Firebase ML with [Remote Config](/docs/remote-config), you can serve different models to different user segments, and with [A/B Testing](/docs/ab-testing), you can run experiments to find the best performing model (see the [Apple](/docs/ml/ios/ab-test-models) and [Android](/docs/ml/android/ab-test-models) guides). |\n| Production-ready for common use cases | Firebase ML comes with a set of ready-to-use APIs for common mobile use cases: recognizing text, labeling images, and identifying landmarks. Simply pass in data to the Firebase ML library and it gives you the information you need. These APIs leverage the power of Google Cloud's machine learning technology to give you the highest level of accuracy. |\n\nCloud vs. on-device\n\nFirebase ML has APIs that work either in the cloud or on the device.\nWhen we describe an ML API as being a cloud API or on-device API, we are\ndescribing *which machine performs inference* : that is, which machine uses the\nML model to discover insights about the data you provide it. In Firebase ML,\nthis happens either on Google Cloud, or on your users' mobile devices.\n\nThe text recognition, image labeling, and landmark recognition APIs perform\ninference in the cloud. These models have more computational power and memory\navailable to them than a comparable on-device model, and as a result, can\nperform inference with greater accuracy and precision than an on-device model.\nOn the other hand, every request to these APIs requires a network round-trip,\nwhich makes them unsuitable for real-time and low-latency applications such as\nvideo processing.\n\nThe custom model APIs deal with ML models that run on the\ndevice. The models used and produced by these features are\n[TensorFlow Lite](https://tensorflow.org/lite) models, which are\noptimized to run on mobile devices. The biggest advantage to these models is\nthat they don't require a network connection and can run very quickly---fast\nenough, for example, to process frames of video in real time.\n\nFirebase ML provides\nthe ability to deploy custom models to your users' devices by\nuploading them to our servers. Your Firebase-enabled app will download the\nmodel to the device on demand. This allows you to keep your app's initial\ninstall size small, and you can swap the ML model without having to republish\nyour app.\n\nML Kit: Ready-to-use on-device models On June 3, 2020, we started offering ML Kit's on-device APIs through a\n| [new\n| standalone SDK](https://developers.google.com/ml-kit).\n| Google Cloud APIs and custom model deployment will\n| continue to be available through Firebase Machine Learning.\n\nIf you're looking for pre-trained models that run on the device, check out\n[ML Kit](https://developers.google.com/ml-kit). ML Kit is available\nfor iOS and Android, and has APIs for many use cases:\n\n- Text recognition\n- Image labeling\n- Object detection and tracking\n- Face detection and contour tracing\n- Barcode scanning\n- Language identification\n- Translation\n- Smart Reply\n\nNext steps\n\n- Explore the ready-to-use APIs: [text recognition](/docs/ml/recognize-text), [image labeling](/docs/ml/label-images), and [landmark recognition](/docs/ml/recognize-landmarks).\n- Learn about using mobile-optimized [custom models](/docs/ml/use-custom-models) in your app."]]