Modelli personalizzati
Se sei uno sviluppatore ML esperto e i modelli predefiniti di ML Kit non soddisfano le tue esigenze, puoi utilizzare un modello TensorFlow Lite personalizzato con ML Kit.
Ospita i tuoi modelli TensorFlow Lite utilizzando Firebase o confezionali con la tua app. Quindi, usa ML Kit SDK per eseguire l'inferenza utilizzando la versione migliore disponibile del tuo modello personalizzato. Se ospiti il tuo modello con Firebase, ML Kit aggiorna automaticamente i tuoi utenti con l'ultima versione.
Capacità chiave
Hosting del modello TensorFlow Lite | Ospita i tuoi modelli utilizzando Firebase per ridurre le dimensioni binarie della tua app e assicurarti che la tua app utilizzi sempre la versione più recente disponibile del tuo modello |
Inferenza ML sul dispositivo | Esegui l'inferenza in un'app iOS o Android utilizzando ML Kit SDK per eseguire il tuo modello TensorFlow Lite personalizzato. Il modello può essere fornito in bundle con l'app, ospitato nel cloud o entrambi. |
Fallback automatico del modello | Specificare più origini del modello; utilizzare un modello archiviato localmente quando il modello ospitato nel cloud non è disponibile |
Aggiornamenti automatici del modello | Configura le condizioni in base alle quali la tua app scarica automaticamente le nuove versioni del tuo modello: quando il dispositivo dell'utente è inattivo, è in carica o ha una connessione Wi-Fi |
Percorso di attuazione
Allena il tuo modello TensorFlow | Crea e addestra un modello personalizzato utilizzando TensorFlow. Oppure, riqualifica un modello esistente che risolva un problema simile a quello che vuoi ottenere. Vedere la Guida per gli sviluppatori di TensorFlow Lite. | |
Converti il modello in TensorFlow Lite | Converti il tuo modello dal formato TensorFlow standard a TensorFlow Lite bloccando il grafico e quindi utilizzando TensorFlow Optimizing Converter (TOCO). Vedere la Guida per gli sviluppatori di TensorFlow Lite. | |
Ospita il tuo modello TensorFlow Lite con Firebase | Facoltativo: quando ospiti il tuo modello TensorFlow Lite con Firebase e includi ML Kit SDK nella tua app, ML Kit mantiene gli utenti aggiornati con l'ultima versione del tuo modello. È possibile configurare ML Kit per scaricare automaticamente gli aggiornamenti del modello quando il dispositivo dell'utente è inattivo o in carica o dispone di una connessione Wi-Fi. | |
Utilizzare il modello TensorFlow Lite per l'inferenza | Usa le API del modello personalizzato di ML Kit nella tua app iOS o Android per eseguire l'inferenza con il tuo modello ospitato da Firebase o in bundle con l'app. |