Modele niestandardowe

Jeśli jesteś doświadczonym programistą ML i gotowe modele ML Kit nie spełniają Twoich potrzeb, możesz użyć niestandardowego modelu TensorFlow Lite z ML Kit.

Hostuj modele TensorFlow Lite za pomocą Firebase lub spakuj je z aplikacją. Następnie użyj pakietu ML Kit SDK, aby przeprowadzić wnioskowanie z użyciem najlepszej dostępnej wersji modelu niestandardowego. Jeśli hostujesz swój model w Firebase, ML Kit automatycznie zaktualizuje go do najnowszej wersji.

iOS Android

Najważniejsze funkcje

Hostowanie modeli TensorFlow Lite Hostuj modele za pomocą Firebase, aby zmniejszyć rozmiar pliku binarnego aplikacji i mieć pewność, że aplikacja zawsze używa najnowszej dostępnej wersji modelu
Wnioskowanie ML na urządzeniu Przeprowadź wnioskowanie w aplikacji na iOS lub Androida, korzystając z pakietu ML Kit SDK do uruchomienia niestandardowego modelu TensorFlow Lite. Model można połączyć w pakiet z aplikacją, hostowany w chmurze lub w obu tych miejscach.
Automatyczny model zastępczy Określ wiele źródeł modelu; gdy model hostowany w chmurze jest niedostępny, użyj modelu przechowywanego lokalnie
Automatyczne aktualizacje modeli Skonfiguruj warunki, w których aplikacja automatycznie pobiera nowe wersje modelu: gdy urządzenie użytkownika jest bezczynne, ładuje się lub łączy się z Wi-Fi

Ścieżka implementacji

Wytrenuj model TensorFlow Utworzenie i wytrenowanie modelu niestandardowego za pomocą TensorFlow. Możesz też ponownie wytrenować istniejący model, który rozwiązuje problem podobny do tego, co chcesz osiągnąć. Zobacz przewodnik dla programistów TensorFlow Lite.
Przekonwertuj model na TensorFlow Lite Przekonwertuj swój model ze standardowego formatu TensorFlow na TensorFlow Lite przez zablokowanie grafu i użycie konwertera TensorFlow Optimizing Converter (TOCO). Zobacz przewodnik dla programistów TensorFlow Lite.
Hostowanie modelu TensorFlow Lite za pomocą Firebase Opcjonalnie: gdy hostujesz model TensorFlow Lite za pomocą Firebase i dodasz pakiet ML Kit SDK do aplikacji, ML Kit zapewni użytkownikom dostęp do najnowszej wersji Twojego modelu. Możesz skonfigurować ML Kit, aby automatycznie pobierał aktualizacje modelu, gdy urządzenie użytkownika jest bezczynne, ładuje się lub ma połączenie Wi-Fi.
Używanie modelu TensorFlow Lite do wnioskowania Używaj interfejsów API modeli niestandardowych ML Kit w swojej aplikacji na iOS lub Androida, aby wnioskować na podstawie modelu hostowanego w Firebase lub z pakietu aplikacji.