Join us for Firebase Summit on November 10, 2021. Tune in to learn how Firebase can help you accelerate app development, release with confidence, and scale with ease. Register

Modele niestandardowe

Jeśli jesteś doświadczonym deweloperem ML i gotowych modeli ML Kit nie spełniają Twoich potrzeb, można użyć niestandardowego TensorFlow Lite model z ML Kit.

Hostuj swoje modele TensorFlow Lite za pomocą Firebase lub spakuj je w swojej aplikacji. Następnie użyj zestawu SDK zestawu ML, aby przeprowadzić wnioskowanie przy użyciu najlepszej dostępnej wersji modelu niestandardowego. Jeśli hostujesz swój model w Firebase, ML Kit automatycznie aktualizuje użytkowników do najnowszej wersji.

iOS Android

Kluczowe możliwości

Hosting modelu TensorFlow Lite Hostuj swoje modele za pomocą Firebase, aby zmniejszyć rozmiar binarny aplikacji i upewnić się, że aplikacja zawsze korzysta z najnowszej dostępnej wersji modelu
Wnioskowanie ML na urządzeniu Przeprowadź wnioskowanie w aplikacji na iOS lub Androida, używając zestawu SDK ML Kit do uruchomienia niestandardowego modelu TensorFlow Lite. Model może być powiązany z aplikacją, hostowany w chmurze lub w obu przypadkach.
Automatyczna awaria modelu Określ wiele źródeł modelu; użyj modelu przechowywanego lokalnie, gdy model hostowany w chmurze jest niedostępny
Automatyczne aktualizacje modeli Skonfiguruj warunki, w jakich aplikacja automatycznie pobiera nowe wersje Twojego modelu: gdy urządzenie użytkownika jest bezczynne, ładuje się lub ma połączenie Wi-Fi

Ścieżka wdrożenia

Trenuj swój model TensorFlow Twórz i trenuj niestandardowy model za pomocą TensorFlow. Lub przeszkol ponownie istniejący model, który rozwiązuje problem podobny do tego, co chcesz osiągnąć. Zobacz TensorFlow Lite Developer Guide .
Konwertuj model na TensorFlow Lite Przekształć swój model ze standardowego formatu TensorFlow na TensorFlow Lite, zamrażając wykres, a następnie korzystając z narzędzia TensorFlow Optimizing Converter (TOCO). Zobacz TensorFlow Lite Developer Guide .
Hostuj swój model TensorFlow Lite za pomocą Firebase Opcjonalnie: gdy hostujesz swój model TensorFlow Lite w Firebase i dołączasz do swojej aplikacji pakiet SDK ML Kit, ML Kit zapewnia użytkownikom aktualne informacje o najnowszej wersji modelu. Możesz skonfigurować ML Kit tak, aby automatycznie pobierał aktualizacje modelu, gdy urządzenie użytkownika jest bezczynne, ładuje się lub ma połączenie Wi-Fi.
Użyj modelu TensorFlow Lite do wnioskowania Użyj niestandardowych interfejsów API modeli ML Kit w swojej aplikacji na iOS lub Androida, aby przeprowadzić wnioskowanie z modelem hostowanym w Firebase lub w pakiecie.