Ikuti semua informasi yang diumumkan di Firebase Summit, dan pelajari bagaimana Firebase dapat membantu Anda mempercepat pengembangan aplikasi dan menjalankan aplikasi dengan percaya diri. Pelajari Lebih Lanjut
Tetap teratur dengan koleksi Simpan dan kategorikan konten berdasarkan preferensi Anda.

Model Kustom

Jika Anda seorang developer ML berpengalaman dan model bawaan ML Kit tidak memenuhi kebutuhan Anda, Anda dapat menggunakan model TensorFlow Lite kustom dengan ML Kit.

Host model TensorFlow Lite Anda menggunakan Firebase atau paketkan dengan aplikasi Anda. Kemudian, gunakan ML Kit SDK untuk melakukan inferensi menggunakan versi terbaik yang tersedia dari model kustom Anda. Jika Anda menghosting model Anda dengan Firebase, ML Kit secara otomatis memperbarui pengguna Anda dengan versi terbaru.

iOS Android

Kemampuan utama

Hosting model TensorFlow Lite Host model Anda menggunakan Firebase untuk mengurangi ukuran biner aplikasi Anda dan untuk memastikan aplikasi Anda selalu menggunakan versi terbaru yang tersedia dari model Anda
Inferensi ML di perangkat Lakukan inferensi di aplikasi iOS atau Android dengan menggunakan ML Kit SDK untuk menjalankan model TensorFlow Lite kustom Anda. Model dapat dibundel dengan aplikasi, dihosting di Cloud, atau keduanya.
Penggantian model otomatis Tentukan beberapa sumber model; gunakan model yang disimpan secara lokal saat model yang dihosting Cloud tidak tersedia
Pembaruan model otomatis Konfigurasikan kondisi di mana aplikasi Anda secara otomatis mengunduh versi baru model Anda: saat perangkat pengguna tidak ada aktivitas, sedang mengisi daya, atau memiliki koneksi Wi-Fi

Jalur implementasi

Latih model TensorFlow Anda Buat dan latih model kustom menggunakan TensorFlow. Atau, latih kembali model yang ada untuk memecahkan masalah yang serupa dengan apa yang ingin Anda capai. Lihat Panduan Pengembang TensorFlow Lite .
Ubah model menjadi TensorFlow Lite Ubah model Anda dari format TensorFlow standar ke TensorFlow Lite dengan membekukan grafik, lalu menggunakan TensorFlow Optimizing Converter (TOCO). Lihat Panduan Pengembang TensorFlow Lite .
Host model TensorFlow Lite Anda dengan Firebase Opsional: Saat Anda menghosting model TensorFlow Lite dengan Firebase dan menyertakan ML Kit SDK di aplikasi Anda, ML Kit membuat pengguna Anda selalu mendapatkan versi terbaru dari model Anda. Anda dapat mengonfigurasi ML Kit untuk mengunduh pembaruan model secara otomatis saat perangkat pengguna menganggur atau mengisi daya, atau memiliki koneksi Wi-Fi.
Gunakan model TensorFlow Lite untuk inferensi Gunakan API model kustom ML Kit di aplikasi iOS atau Android Anda untuk melakukan inferensi dengan model yang dihosting Firebase atau paket aplikasi Anda.