Modele niestandardowe
Jeśli korzystasz z niestandardowych modeli TensorFlow Lite , Firebase ML pomoże Ci zapewnić, że Twoi użytkownicy zawsze korzystają z najlepszej dostępnej wersji Twojego niestandardowego modelu. Gdy wdrażasz model w Firebase, Firebase ML pobiera model tylko wtedy, gdy jest to potrzebne, i automatycznie aktualizuje użytkowników do najnowszej wersji.
Kluczowe możliwości
Wdrożenie modelu TensorFlow Lite | Wdróż swoje modele za pomocą Firebase, aby zmniejszyć rozmiar binarny aplikacji i upewnić się, że aplikacja zawsze korzysta z najnowszej dostępnej wersji modelu |
Wnioskowanie ML na urządzeniu | Przeprowadź wnioskowanie w aplikacji Apple lub Android, używając interpretera TensorFlow Lite z Twoim modelem. |
Automatyczne aktualizacje modeli | Skonfiguruj warunki, w jakich aplikacja automatycznie pobiera nowe wersje Twojego modelu: gdy urządzenie użytkownika jest bezczynne, ładuje się lub ma połączenie Wi-Fi |
Ścieżka wdrożenia
Trenuj swój model TensorFlow | Twórz i trenuj niestandardowy model za pomocą TensorFlow. Lub przeszkol ponownie istniejący model, który rozwiązuje problem podobny do tego, co chcesz osiągnąć. | |
Konwertuj model na TensorFlow Lite | Konwertuj swój model z formatu HDF5 lub zamrożonego wykresu do formatu TensorFlow Lite za pomocą konwertera TensorFlow Lite . | |
Wdróż swój model TensorFlow Lite w Firebase | Opcjonalnie: po wdrożeniu modelu TensorFlow Lite w Firebase i dołączeniu do aplikacji pakietu Firebase ML SDK, Firebase ML zapewni użytkownikom aktualne informacje o najnowszej wersji modelu. Możesz skonfigurować go tak, aby automatycznie pobierał aktualizacje modelu, gdy urządzenie użytkownika jest bezczynne, ładuje się lub ma połączenie Wi-Fi. | |
Użyj modelu TensorFlow Lite do wnioskowania | Użyj interpretera TensorFlow Lite w aplikacji Apple lub Android, aby przeprowadzić wnioskowanie z modelami wdrożonymi przy użyciu Firebase. |
Ćwiczenia z programowania
Wypróbuj kilka ćwiczeń z programowania, aby dowiedzieć się, jak Firebase może pomóc w łatwiejszym i efektywniejszym korzystaniu z modeli TensorFlow Lite.