Modele niestandardowe

Jeśli jesteś doświadczonym programistą ML, a gotowe modele ML Kit nie spełniają Twoich potrzeb, możesz użyć niestandardowego modelu TensorFlow Lite z ML Kit.

Hostuj swoje modele TensorFlow Lite za pomocą Firebase lub spakuj je w swojej aplikacji. Następnie użyj zestawu SDK ML Kit, aby przeprowadzić wnioskowanie przy użyciu najlepszej dostępnej wersji modelu niestandardowego. Jeśli hostujesz swój model w Firebase, ML Kit automatycznie aktualizuje użytkowników do najnowszej wersji.

iOS Android

Kluczowe możliwości

Hosting modelu TensorFlow Lite Hostuj swoje modele za pomocą Firebase, aby zmniejszyć rozmiar binarny aplikacji i upewnić się, że aplikacja zawsze korzysta z najnowszej dostępnej wersji modelu
Wnioskowanie ML na urządzeniu Przeprowadź wnioskowanie w aplikacji na iOS lub Androida, używając zestawu SDK ML Kit do uruchomienia niestandardowego modelu TensorFlow Lite. Model może być powiązany z aplikacją, hostowany w chmurze lub w obu.
Automatyczna awaria modelu Określ wiele źródeł modelu; użyj modelu przechowywanego lokalnie, gdy model hostowany w chmurze jest niedostępny
Automatyczne aktualizacje modeli Skonfiguruj warunki, w jakich aplikacja automatycznie pobiera nowe wersje Twojego modelu: gdy urządzenie użytkownika jest bezczynne, ładuje się lub ma połączenie Wi-Fi

Ścieżka wdrożenia

Trenuj swój model TensorFlow Twórz i trenuj niestandardowy model za pomocą TensorFlow. Lub przeszkol ponownie istniejący model, który rozwiązuje problem podobny do tego, co chcesz osiągnąć. Zobacz Przewodnik dla programistów TensorFlow Lite .
Konwertuj model na TensorFlow Lite Przekształć swój model ze standardowego formatu TensorFlow na TensorFlow Lite, zamrażając wykres, a następnie korzystając z narzędzia TensorFlow Optimizing Converter (TOCO). Zobacz Przewodnik dla programistów TensorFlow Lite .
Hostuj swój model TensorFlow Lite za pomocą Firebase Opcjonalnie: gdy hostujesz swój model TensorFlow Lite w Firebase i dołączasz pakiet SDK ML Kit do swojej aplikacji, ML Kit zapewnia użytkownikom aktualne informacje o najnowszej wersji modelu. Możesz skonfigurować ML Kit, aby automatycznie pobierał aktualizacje modelu, gdy urządzenie użytkownika jest bezczynne, ładuje się lub ma połączenie Wi-Fi.
Użyj modelu TensorFlow Lite do wnioskowania Użyj niestandardowych interfejsów API modeli ML Kit w aplikacji na iOS lub Androida, aby przeprowadzić wnioskowanie z modelem hostowanym w Firebase lub w pakiecie z aplikacją.