Modelli personalizzati
Se utilizzi le applicazioni TensorFlow Lite, Firebase ML può aiutarti a garantire che i tuoi utenti utilizzino sempre la versione migliore disponibile del tuo modello personalizzato. Quando esegui il deployment del modello Firebase, Firebase ML scarica il modello solo quando necessario e aggiorna automaticamente gli utenti all'ultima versione.
Iniziamo? Scegli la tua piattaforma:
iOS e versioni successive Android
Funzionalità chiave
Deployment dei modelli TensorFlow Lite | Esegui il deployment dei tuoi modelli utilizzando Firebase per ridurre le dimensioni del programma binario dell'app e assicurati che la tua app utilizzi sempre la versione più recente disponibile di il tuo modello |
Inferenza ML on-device | Eseguire l'inferenza in un'app Apple o Android utilizzando TensorFlow Lite da interprete con il tuo modello. |
Aggiornamenti automatici del modello | Configura le condizioni in base alle quali la tua app viene scaricata automaticamente nuove versioni del modello: quando il dispositivo dell'utente è inattivo, è in carica, o dispone di una connessione Wi-Fi |
Percorso di implementazione
Addestra il tuo modello TensorFlow | Creare e addestrare un modello personalizzato con TensorFlow. In alternativa, addestra nuovamente un un modello esistente che risolve un problema simile a quello che si vuole ottenere. | |
Converti il modello in TensorFlow Lite | Converti il tuo modello da HDF5 o formato grafico bloccato a TensorFlow Lite utilizzando Convertitore TensorFlow Lite. | |
Esegui il deployment del tuo modello TensorFlow Lite in Firebase | (Facoltativo) Quando esegui il deployment del modello TensorFlow Lite in Firebase includi l'SDK Firebase ML nel tuo app, Firebase ML consente agli utenti di aggiornato all'ultima versione del modello. Puoi configurarla per scarica automaticamente gli aggiornamenti del modello quando il dispositivo dell'utente è inattivo o è in carica o è connesso al Wi-Fi. | |
Utilizzare il modello TensorFlow Lite per l'inferenza | Utilizza l'interprete di TensorFlow Lite nella tua app Apple o Android per eseguire l'inferenza con modelli di cui è stato eseguito il deployment mediante Firebase. |
Codelab
Prova alcuni codelab per scoprire in che modo Firebase può aiutarti a utilizzare Modelli TensorFlow Lite in modo più semplice ed efficace.