Firebase Machine Learning

Utilizza il machine learning nelle tue app per risolvere problemi reali.

Firebase Machine Learning è un SDK mobile che porta la macchina imparare competenze sulle app per Android e Apple in un'esperienza potente e intuitiva pacchetto. Che tu sia alle prime armi o abbia esperienza nel machine learning, puoi implementare la funzionalità di cui hai bisogno con poche righe di codice. Per iniziare non è necessario avere una conoscenza approfondita delle reti neurali o dell'ottimizzazione dei modelli. Se invece sei uno sviluppatore ML esperto, Firebase ML offre pratiche API che ti aiutano a utilizzare le tue Modelli TensorFlow Lite nelle tue app mobile.

Funzionalità chiave

Ospita ed esegui il deployment di modelli personalizzati

Utilizza i tuoi modelli TensorFlow Lite per l'inferenza on-device. Soltanto eseguire il deployment del modello in Firebase e noi ci occuperemo dell'hosting pubblicandolo nella tua app. Firebase pubblicherà dinamicamente i dati più recenti del modello agli utenti, consentendoti di aggiornare regolarmente senza dover inviare agli utenti una nuova versione dell'app.

Quando utilizzi Firebase ML con Remote Config, puoi pubblicare modelli diversi per utenti diversi e con A/B Testing puoi puoi eseguire esperimenti per trovare il modello con il rendimento migliore (vedi il Mela e Guide di Android).

Pronta per la produzione per casi d'uso comuni

Firebase ML è dotato di un insieme di API pronte all'uso per i casi d'uso comuni su dispositivi mobili: riconoscimento del testo, etichettatura delle immagini e identificazione di punti di riferimento. Basta passare i dati alla libreria Firebase ML per ottenere le informazioni necessarie. Queste API sfruttano la potenza delGoogle Cloud tecnologia di machine learning per offrirti il massimo livello di precisione.

Cloud e sul dispositivo

Firebase ML dispone di API che funzionano nel cloud o sul dispositivo. Quando descriviamo un'API ML come API Cloud o API on-device, descrivendo quale macchina esegue l'inferenza, ovvero quale macchina utilizza di machine learning per scoprire insight sui dati da te forniti. A Firebase ML, questo si verifica su Google Cloud o sui contenuti dispositivi mobili.

Le API per il riconoscimento del testo, l'etichettatura delle immagini e il riconoscimento dei punti di riferimento l'inferenza nel cloud. Questi modelli hanno a disposizione più potenza di calcolo e memoria rispetto a un modello on-device paragonabile e, di conseguenza, possono eseguire l'inferenza con maggiore accuratezza e precisione rispetto a un modello on-device. Al contrario, ogni richiesta a queste API richiede un round-trip di rete, pertanto non sono adatte per applicazioni in tempo reale e a bassa latenza, come nell'elaborazione dei video.

Le API per modelli personalizzati si occupano di modelli ML che vengono eseguiti dispositivo. I modelli utilizzati e prodotti da queste caratteristiche sono TensorFlow Lite, che sono ottimizzate per i dispositivi mobili. Il vantaggio più grande di questi modelli è che non richiedono una connessione di rete e possono funzionare molto rapidamente sufficiente, ad esempio, per elaborare i fotogrammi dei video in tempo reale.

Firebase ML offre la possibilità di implementare modelli personalizzati sui dispositivi degli utenti caricandoli sui nostri server. L'app abilitata per Firebase scaricherà al dispositivo on demand. In questo modo puoi mantenere l'iniziale di installazione ridotte ed è possibile scambiare il modello ML senza doverlo ripubblicare la tua app.

ML Kit: modelli on-device pronti all'uso

Se stai cercando modelli preaddestrati che vengono eseguiti sul dispositivo, dai un'occhiata a ML Kit. ML Kit è disponibile per iOS e Android e dispone di API per molti casi d'uso:

  • Riconoscimento del testo
  • Etichettatura delle immagini
  • Rilevamento e monitoraggio degli oggetti
  • Rilevamento facciale e tracciamento del contorno
  • Scansione dei codici a barre
  • Identificazione della lingua
  • Traduzione
  • Risposta rapida

Passaggi successivi