Google is committed to advancing racial equity for Black communities. See how.
Questa pagina è stata tradotta dall'API Cloud Translation.
Switch to English

Modelli personalizzati

Se sei uno sviluppatore ML esperto ei modelli predefiniti di ML Kit non soddisfano le tue esigenze, puoi utilizzare un modello TensorFlow Lite personalizzato con ML Kit.

Ospita i tuoi modelli TensorFlow Lite utilizzando Firebase o crea un pacchetto con la tua app. Quindi, utilizza ML Kit SDK per eseguire l'inferenza utilizzando la migliore versione disponibile del tuo modello personalizzato. Se ospiti il ​​tuo modello con Firebase, ML Kit aggiorna automaticamente i tuoi utenti con l'ultima versione.

iOS Android

Funzionalità chiave

Hosting del modello TensorFlow Lite Ospita i tuoi modelli utilizzando Firebase per ridurre le dimensioni binarie della tua app e per assicurarti che la tua app utilizzi sempre la versione più recente disponibile del tuo modello
Inferenza ML sul dispositivo Esegui inferenza in un'app iOS o Android utilizzando ML Kit SDK per eseguire il tuo modello TensorFlow Lite personalizzato. Il modello può essere fornito in bundle con l'app, ospitato nel Cloud o entrambi.
Fallback automatico del modello Specificare più origini del modello; utilizzare un modello archiviato localmente quando il modello ospitato nel cloud non è disponibile
Aggiornamenti automatici del modello Configura le condizioni in base alle quali la tua app scarica automaticamente le nuove versioni del tuo modello: quando il dispositivo dell'utente è inattivo, è in carica o ha una connessione Wi-Fi

Percorso di implementazione

Addestra il tuo modello TensorFlow Crea e addestra un modello personalizzato utilizzando TensorFlow. Oppure ri-addestrare un modello esistente che risolva un problema simile a quello che si desidera ottenere. Consulta la Guida per sviluppatori di TensorFlow Lite.
Converti il ​​modello in TensorFlow Lite Converti il ​​tuo modello dal formato TensorFlow standard a TensorFlow Lite congelando il grafico e quindi utilizzando TensorFlow Optimizing Converter (TOCO). Consulta la Guida per sviluppatori di TensorFlow Lite.
Ospita il tuo modello TensorFlow Lite con Firebase Facoltativo: quando ospiti il ​​tuo modello TensorFlow Lite con Firebase e includi l'SDK ML Kit nella tua app, ML Kit mantiene i tuoi utenti aggiornati con l'ultima versione del tuo modello. È possibile configurare ML Kit per scaricare automaticamente gli aggiornamenti del modello quando il dispositivo dell'utente è inattivo o in carica o dispone di una connessione Wi-Fi.
Utilizza il modello TensorFlow Lite per l'inferenza Utilizza le API del modello personalizzato di ML Kit nella tua app iOS o Android per eseguire inferenze con il tuo modello ospitato da Firebase o in bundle con l'app.