Catch up on everything announced at Firebase Summit, and learn how Firebase can help you accelerate app development and run your app with confidence. Learn More
Mantieni tutto organizzato con le raccolte Salva e classifica i contenuti in base alle tue preferenze.

Modelli personalizzati

Se sei uno sviluppatore ML esperto e i modelli predefiniti di ML Kit non soddisfano le tue esigenze, puoi utilizzare un modello TensorFlow Lite personalizzato con ML Kit.

Ospita i tuoi modelli TensorFlow Lite utilizzando Firebase o confezionali con la tua app. Quindi, usa ML Kit SDK per eseguire l'inferenza utilizzando la versione migliore disponibile del tuo modello personalizzato. Se ospiti il ​​tuo modello con Firebase, ML Kit aggiorna automaticamente i tuoi utenti con l'ultima versione.

iOS Android

Capacità chiave

Hosting del modello TensorFlow Lite Ospita i tuoi modelli utilizzando Firebase per ridurre le dimensioni binarie della tua app e assicurarti che la tua app utilizzi sempre la versione più recente disponibile del tuo modello
Inferenza ML sul dispositivo Esegui l'inferenza in un'app iOS o Android utilizzando ML Kit SDK per eseguire il tuo modello TensorFlow Lite personalizzato. Il modello può essere fornito in bundle con l'app, ospitato nel cloud o entrambi.
Fallback automatico del modello Specificare più origini del modello; utilizzare un modello archiviato localmente quando il modello ospitato nel cloud non è disponibile
Aggiornamenti automatici del modello Configura le condizioni in base alle quali la tua app scarica automaticamente le nuove versioni del tuo modello: quando il dispositivo dell'utente è inattivo, è in carica o ha una connessione Wi-Fi

Percorso di attuazione

Allena il tuo modello TensorFlow Crea e addestra un modello personalizzato utilizzando TensorFlow. Oppure, riqualifica un modello esistente che risolva un problema simile a quello che vuoi ottenere. Vedere la Guida per gli sviluppatori di TensorFlow Lite.
Converti il ​​modello in TensorFlow Lite Converti il ​​tuo modello dal formato TensorFlow standard a TensorFlow Lite bloccando il grafico e quindi utilizzando TensorFlow Optimizing Converter (TOCO). Vedere la Guida per gli sviluppatori di TensorFlow Lite.
Ospita il tuo modello TensorFlow Lite con Firebase Facoltativo: quando ospiti il ​​tuo modello TensorFlow Lite con Firebase e includi ML Kit SDK nella tua app, ML Kit mantiene gli utenti aggiornati con l'ultima versione del tuo modello. È possibile configurare ML Kit per scaricare automaticamente gli aggiornamenti del modello quando il dispositivo dell'utente è inattivo o in carica o dispone di una connessione Wi-Fi.
Utilizzare il modello TensorFlow Lite per l'inferenza Usa le API del modello personalizzato di ML Kit nella tua app iOS o Android per eseguire l'inferenza con il tuo modello ospitato da Firebase o in bundle con l'app.