Modele niestandardowe

Jeśli jesteś doświadczonym deweloperem ML i gotowych modeli ML Kit nie spełniają Twoich potrzeb, można użyć niestandardowego TensorFlow Lite model z ML Kit.

Hostuj swoje modele TensorFlow Lite za pomocą Firebase lub spakuj je w swojej aplikacji. Następnie użyj zestawu SDK zestawu ML, aby przeprowadzić wnioskowanie przy użyciu najlepszej dostępnej wersji modelu niestandardowego. Jeśli hostujesz swój model w Firebase, ML Kit automatycznie aktualizuje użytkowników do najnowszej wersji.

iOS Android

Kluczowe możliwości

Hosting modelu TensorFlow Lite Hostuj swoje modele za pomocą Firebase, aby zmniejszyć rozmiar binarny aplikacji i upewnić się, że aplikacja zawsze korzysta z najnowszej dostępnej wersji modelu
Wnioskowanie ML na urządzeniu Przeprowadź wnioskowanie w aplikacji na iOS lub Androida, używając zestawu SDK ML Kit do uruchomienia niestandardowego modelu TensorFlow Lite. Model może być powiązany z aplikacją, hostowany w chmurze lub w obu przypadkach.
Automatyczna awaria modelu Określ wiele źródeł modelu; użyj modelu przechowywanego lokalnie, gdy model hostowany w chmurze jest niedostępny
Automatyczne aktualizacje modeli Skonfiguruj warunki, w jakich aplikacja automatycznie pobiera nowe wersje Twojego modelu: gdy urządzenie użytkownika jest bezczynne, ładuje się lub ma połączenie Wi-Fi

Ścieżka wdrożenia

Trenuj swój model TensorFlow Twórz i trenuj niestandardowy model za pomocą TensorFlow. Lub przeszkol ponownie istniejący model, który rozwiązuje problem podobny do tego, co chcesz osiągnąć. Zobacz TensorFlow Lite Developer Guide .
Konwertuj model na TensorFlow Lite Przekształć swój model ze standardowego formatu TensorFlow na TensorFlow Lite, zamrażając wykres, a następnie korzystając z narzędzia TensorFlow Optimizing Converter (TOCO). Zobacz TensorFlow Lite Developer Guide .
Hostuj swój model TensorFlow Lite za pomocą Firebase Opcjonalnie: gdy hostujesz swój model TensorFlow Lite w Firebase i dołączasz do swojej aplikacji pakiet SDK ML Kit, ML Kit zapewnia użytkownikom aktualne informacje o najnowszej wersji modelu. Możesz skonfigurować ML Kit tak, aby automatycznie pobierał aktualizacje modelu, gdy urządzenie użytkownika jest bezczynne, ładuje się lub ma połączenie Wi-Fi.
Użyj modelu TensorFlow Lite do wnioskowania Użyj niestandardowych interfejsów API modeli ML Kit w swojej aplikacji na iOS lub Androida, aby przeprowadzić wnioskowanie z modelem hostowanym w Firebase lub w pakiecie.