Modelli personalizzati
Se sei uno sviluppatore ML esperto, i modelli predefiniti di ML Kit non che soddisfano le tue esigenze, puoi utilizzare Modello TensorFlow Lite con ML Kit.
Ospita i tuoi modelli TensorFlow Lite utilizzando Firebase o pacchettizzali nella tua app. Quindi, utilizza l'SDK ML Kit per eseguire l'inferenza utilizzando del modello personalizzato. Se ospiti il tuo modello con Firebase, ML Kit aggiorna automaticamente gli utenti con la versione più recente.
Funzionalità chiave
Hosting di modelli TensorFlow Lite | Ospita i tuoi modelli utilizzando Firebase per ridurre le dimensioni del file binario dell'app e assicurati che la tua app utilizzi sempre la versione più recente disponibile di il tuo modello |
Inferenza ML on-device | Esegui l'inferenza in un'app per iOS o Android utilizzando l'SDK ML Kit per il tuo modello TensorFlow Lite personalizzato. Il modello può essere fornito in bundle con l'app, ospitato nel cloud o entrambi. |
Failover automatico del modello | Specifica più origini modello; utilizza un modello archiviato localmente quando il modello ospitato su cloud non è disponibile |
Aggiornamenti automatici del modello | Configura le condizioni in base alle quali la tua app viene scaricata automaticamente nuove versioni del modello: quando il dispositivo dell'utente è inattivo, è in carica, o dispone di una connessione Wi-Fi |
Percorso di implementazione
Addestra il tuo modello TensorFlow | Creare e addestrare un modello personalizzato con TensorFlow. In alternativa, addestra nuovamente un un modello esistente che risolve un problema simile a quello che si vuole ottenere. Consulta la Guida per gli sviluppatori di TensorFlow Lite. | |
Converti il modello in TensorFlow Lite | Converti il modello dal formato TensorFlow standard a TensorFlow Lite bloccando il grafo e poi utilizzando il convertitore di ottimizzazione di TensorFlow (TOCO). Visualizza TensorFlow Lite Guida per gli sviluppatori. | |
Ospitare il modello TensorFlow Lite con Firebase | (Facoltativo) Quando ospiti il tuo modello TensorFlow Lite con Firebase includere l'SDK ML Kit nella tua app, ML Kit consente agli utenti di aggiornato all'ultima versione del modello. Puoi configurare ML Kit scarica automaticamente gli aggiornamenti del modello quando il dispositivo dell'utente è inattivo o è in carica o è connesso al Wi-Fi. | |
Utilizzare il modello TensorFlow Lite per l'inferenza | Usa le API del modello personalizzato di ML Kit nella tua app per iOS o Android per eseguire di inferenza con il tuo modello ospitato da Firebase o in bundle di app. |