Model Kustom

Jika Anda adalah developer ML berpengalaman dan model ML Kit yang dibuat sebelumnya tidak sesuai dengan kebutuhan, Anda dapat menggunakan model TensorFlow Lite kustom dengan ML Kit.

Hosting model TensorFlow Lite Anda menggunakan Firebase atau paketkan model tersebut dengan aplikasi Anda. Kemudian, gunakan ML Kit SDK untuk melakukan inferensi menggunakan versi terbaik yang tersedia dari model kustom Anda. Jika model dihosting di Firebase, ML Kit akan mengupdate pengguna Anda dengan versi terbaru secara otomatis.

iOS Android

Kemampuan utama

Hosting model TensorFlow Lite Hosting model Anda di Firebase untuk mengurangi ukuran biner aplikasi, dan untuk memastikan aplikasi selalu menggunakan versi terbaru yang tersedia dari model Anda.
Inferensi ML di perangkat Jalankan inferensi pada aplikasi iOS atau Android dengan menggunakan ML Kit SDK untuk menjalankan model TensorFlow Lite kustom. Model dapat dipaketkan dengan aplikasi, dihosting di Cloud, atau keduanya.
Fallback model otomatis Tentukan beberapa sumber model; gunakan model yang disimpan secara lokal jika model yang dihosting di Cloud tidak tersedia.
Update model otomatis Konfigurasikan kondisi sehingga aplikasi akan mendownload versi baru model Anda secara otomatis saat perangkat pengguna sedang idle, mengisi daya, atau tersambung ke koneksi Wi-Fi.

Alur implementasi

Melatih model TensorFlow Buat dan latih model kustom menggunakan TensorFlow. Atau, latih ulang model yang ada yang memberikan solusi terhadap masalah yang mirip dengan yang ingin Anda capai. Lihat Panduan Developer TensorFlow Lite.
Mengonversi model ke TensorFlow Lite Ubah model Anda dari format TensorFlow standar ke TensorFlow Lite dengan membekukan grafik, lalu menggunakan TensorFlow Optimizing Converter (TOCO). Lihat Panduan Developer TensorFlow Lite.
Menghosting model TensorFlow Lite di Firebase Opsional: Jika Anda menghosting model TensorFlow Lite di Firebase dan menyertakan ML Kit SDK di aplikasi, ML Kit akan terus mengupdate pengguna dengan versi terbaru dari aplikasi Anda. Anda dapat mengonfigurasi ML Kit agar mendownload update model secara otomatis saat perangkat pengguna sedang idle atau mengisi daya, atau tersambung ke koneksi Wi-Fi.
Menggunakan model TensorFlow Lite untuk inferensi Gunakan API model kustom pada ML Kit di aplikasi iOS atau Android Anda untuk melakukan inferensi dengan model yang dihosting Firebase atau yang dipaketkan dalam aplikasi.