Firebase is back at Google I/O on May 10! Register now
Mantieni tutto organizzato con le raccolte Salva e classifica i contenuti in base alle tue preferenze.

Modelli personalizzati

Se sei uno sviluppatore ML esperto e i modelli predefiniti di ML Kit non soddisfano le tue esigenze, puoi utilizzare un modello TensorFlow Lite personalizzato con ML Kit.

Ospita i tuoi modelli TensorFlow Lite utilizzando Firebase o confezionali con la tua app. Quindi, usa ML Kit SDK per eseguire l'inferenza utilizzando la versione migliore disponibile del tuo modello personalizzato. Se ospiti il ​​tuo modello con Firebase, ML Kit aggiorna automaticamente i tuoi utenti con l'ultima versione.

iOS Android

Capacità chiave

Hosting del modello TensorFlow Lite Ospita i tuoi modelli utilizzando Firebase per ridurre le dimensioni binarie della tua app e assicurarti che la tua app utilizzi sempre la versione più recente disponibile del tuo modello
Inferenza ML sul dispositivo Esegui l'inferenza in un'app iOS o Android utilizzando ML Kit SDK per eseguire il tuo modello TensorFlow Lite personalizzato. Il modello può essere fornito in bundle con l'app, ospitato nel cloud o entrambi.
Fallback automatico del modello Specificare più origini del modello; utilizzare un modello archiviato localmente quando il modello ospitato nel cloud non è disponibile
Aggiornamenti automatici del modello Configura le condizioni in base alle quali la tua app scarica automaticamente le nuove versioni del tuo modello: quando il dispositivo dell'utente è inattivo, è in carica o ha una connessione Wi-Fi

Percorso di attuazione

Allena il tuo modello TensorFlow Crea e addestra un modello personalizzato utilizzando TensorFlow. Oppure, riqualifica un modello esistente che risolva un problema simile a quello che vuoi ottenere. Vedere la Guida per gli sviluppatori di TensorFlow Lite.
Converti il ​​modello in TensorFlow Lite Converti il ​​tuo modello dal formato TensorFlow standard a TensorFlow Lite bloccando il grafico e quindi utilizzando TensorFlow Optimizing Converter (TOCO). Vedere la Guida per gli sviluppatori di TensorFlow Lite.
Ospita il tuo modello TensorFlow Lite con Firebase Facoltativo: quando ospiti il ​​tuo modello TensorFlow Lite con Firebase e includi ML Kit SDK nella tua app, ML Kit mantiene gli utenti aggiornati con l'ultima versione del tuo modello. È possibile configurare ML Kit per scaricare automaticamente gli aggiornamenti del modello quando il dispositivo dell'utente è inattivo o in carica o dispone di una connessione Wi-Fi.
Utilizzare il modello TensorFlow Lite per l'inferenza Usa le API del modello personalizzato di ML Kit nella tua app iOS o Android per eseguire l'inferenza con il tuo modello ospitato da Firebase o in bundle con l'app.