Kit ML per Firebase
Usa l'apprendimento automatico nelle tue app per risolvere i problemi del mondo reale.
ML Kit è un SDK mobile che porta l'esperienza di apprendimento automatico di Google nelle app Android e iOS in un pacchetto potente ma facile da usare. Che tu sia nuovo o esperto di machine learning, puoi implementare le funzionalità di cui hai bisogno in poche righe di codice. Non è necessario avere una conoscenza approfondita delle reti neurali o dell'ottimizzazione dei modelli per iniziare. D'altra parte, se sei uno sviluppatore ML esperto, ML Kit fornisce comode API che ti aiutano a utilizzare i tuoi modelli TensorFlow Lite personalizzati nelle tue app mobili.
Capacità chiave
Pronto per la produzione per casi d'uso comuni | ML Kit viene fornito con una serie di API pronte per l'uso per casi d'uso mobili comuni: riconoscimento di testo, rilevamento di volti, identificazione di punti di riferimento, scansione di codici a barre, etichettatura di immagini e identificazione della lingua del testo. Basta passare i dati alla libreria ML Kit e ti fornisce le informazioni di cui hai bisogno. |
Sul dispositivo o nel cloud | La selezione di API di ML Kit viene eseguita sul dispositivo o nel cloud. Le nostre API sul dispositivo possono elaborare i tuoi dati rapidamente e funzionare anche quando non c'è connessione di rete. Le nostre API basate su cloud, d'altra parte, sfruttano la potenza della tecnologia di apprendimento automatico di Google Cloud per offrirti un livello di precisione ancora più elevato. |
Distribuisci modelli personalizzati | Se le API di ML Kit non coprono i tuoi casi d'uso, puoi sempre portare i tuoi modelli TensorFlow Lite esistenti. Carica il tuo modello su Firebase e noi ci occuperemo dell'hosting e del servizio sulla tua app. ML Kit funge da livello API per il tuo modello personalizzato, semplificandone l'esecuzione e l'utilizzo. |
Come funziona?
ML Kit semplifica l'applicazione delle tecniche ML nelle tue app riunendo le tecnologie ML di Google, come Google Cloud Vision API , TensorFlow Lite e Android Neural Networks API insieme in un unico SDK. Che tu abbia bisogno della potenza dell'elaborazione basata su cloud, delle funzionalità in tempo reale dei modelli su dispositivo ottimizzati per dispositivi mobili o della flessibilità dei modelli TensorFlow Lite personalizzati, ML Kit lo rende possibile con poche righe di codice.
Quali funzionalità sono disponibili sul dispositivo o nel cloud?
Percorso di attuazione
Integra l'SDK | Includi rapidamente l'SDK usando Gradle o CocoaPods. | |
Preparare i dati di input | Ad esempio, se stai utilizzando una funzione di visione, acquisisci un'immagine dalla fotocamera e genera i metadati necessari, come la rotazione dell'immagine, oppure chiedi all'utente di selezionare una foto dalla sua galleria. | |
Applica il modello ML ai tuoi dati | Applicando il modello ML ai tuoi dati, generi approfondimenti come lo stato emotivo dei volti rilevati o gli oggetti e i concetti che sono stati riconosciuti nell'immagine, a seconda della funzione utilizzata. Usa queste informazioni per potenziare funzionalità nella tua app come abbellimento di foto, generazione automatica di metadati o qualsiasi altra cosa tu possa immaginare. |
Prossimi passi
- Esplora le API pronte per l'uso: riconoscimento del testo , rilevamento del volto , scansione di codici a barre , etichettatura di immagini , rilevamento e tracciamento di oggetti , riconoscimento di punti di riferimento, risposta intelligente , traduzione e identificazione della lingua .
- Addestra il tuo modello di etichettatura delle immagini con AutoML Vision Edge .
- Ulteriori informazioni sull'utilizzo di modelli personalizzati ottimizzati per dispositivi mobili nella tua app.