Buka konsol

Model Kustomplat_iosplat_android

Jika Anda adalah developer ML berpengalaman dan model pre-buildt ML Kit tidak sesuai dengan kebutuhan, Anda dapat menggunakan model TensorFlow Lite kustom dengan ML Kit.

Hosting model TensorFlow Lite Anda di Firebase atau paketkan dengan aplikasi Anda. Kemudian, gunakan ML Kit SDK untuk menjalankan inferensi menggunakan versi terbaik yang tersedia dari model kustom Anda. Jika model dihosting di Firebase, ML Kit akan mengupdate pengguna Anda dengan versi terbaru secara otomatis.

iOS Android

Kemampuan utama

Hosting model TensorFlow Lite Hosting model Anda di Firebase untuk mengurangi ukuran biner aplikasi, dan untuk memastikan aplikasi selalu menggunakan versi terbaru yang tersedia dari model Anda
Inferensi ML di perangkat Jalankan inferensi pada aplikasi iOS atau Android dengan menggunakan ML Kit SDK untuk menjalankan model TensorFlow Lite kustom. Model dapat dipaketkan dengan aplikasi, dihosting di Cloud, atau keduanya.
Fallback model otomatis Tentukan beberapa sumber model; gunakan model yang disimpan secara lokal jika model yang dihosting di Cloud tidak tersedia
Update model otomatis Konfigurasi condition sehingga aplikasi akan mendownload versi baru model Anda secara otomatis saat perangkat pengguna sedang idle, mengisi daya, atau tersambung ke koneksi Wi-Fi

Alur implementasi

Latih model TensorFlow Buat dan latih model kustom menggunakan TensorFlow. Atau, latih ulang model yang ada agar mampu memecahkan masalah yang mirip dengan yang ingin Anda capai. Lihat Panduan Developer TensorFlow Lite.
Konversi model ke TensorFlow Lite Ubah model Anda dari format TensorFlow standar ke TensorFlow Lite dengan membekukan grafik, lalu menggunakan TensorFlow Optimizing Converter (TOCO). Lihat Panduan Developer TensorFlow Lite.
Hosting model TensorFlow Lite di Firebase Opsional: Jika Anda menghosting model TensorFlow Lite di Firebase dan menyertakan ML Kit SDK di aplikasi, ML Kit akan terus mengupdate pengguna dengan versi terbaru dari aplikasi Anda. Anda dapat mengonfigurasi ML Kit agar mendownload update model secara otomatis saat perangkat pengguna sedang idle atau mengisi daya, atau tersambung ke koneksi Wi-Fi.
Gunakan model TensorFlow Lite untuk inferensi Gunakan API model kustom ML Kit di aplikasi iOS atau Android Anda untuk menjalankan inferensi dengan model yang dihosting di Firebase atau yang dipaketkan dalam aplikasi.