Catch up on everything announced at Firebase Summit, and learn how Firebase can help you accelerate app development and run your app with confidence. Learn More

Użyj niestandardowego modelu TensorFlow Lite z Flutter

Zadbaj o dobrą organizację dzięki kolekcji Zapisuj i kategoryzuj treści zgodnie ze swoimi preferencjami.

Jeśli Twoja aplikacja korzysta z niestandardowych modeli TensorFlow Lite , możesz użyć Firebase ML do wdrożenia swoich modeli. Wdrażając modele za pomocą Firebase, możesz zmniejszyć początkowy rozmiar pobieranej aplikacji i zaktualizować modele ML aplikacji bez wydawania nowej wersji aplikacji. A dzięki zdalnej konfiguracji i testom A/B możesz dynamicznie udostępniać różne modele różnym grupom użytkowników.

Modele TensorFlow Lite

Modele TensorFlow Lite to modele ML zoptymalizowane do działania na urządzeniach mobilnych. Aby uzyskać model TensorFlow Lite:

Pamiętaj, że w przypadku braku utrzymywanej biblioteki TensorFlow Lite dla Dart, będziesz musiał zintegrować się z natywną biblioteką TensorFlow Lite dla swoich platform. Ta integracja nie jest tutaj udokumentowana.

Zanim zaczniesz

  1. Zainstaluj i zainicjuj zestawy SDK Firebase dla Flutter , jeśli jeszcze tego nie zrobiłeś.

  2. W katalogu głównym projektu Flutter uruchom następujące polecenie, aby zainstalować wtyczkę do pobierania modeli ML:

    flutter pub add firebase_ml_model_downloader
    
  3. Przebuduj swój projekt:

    flutter run
    

1. Wdróż swój model

Wdrażaj niestandardowe modele TensorFlow przy użyciu konsoli Firebase lub zestawów SDK Firebase Admin Python i Node.js. Zobacz Wdrażanie modeli niestandardowych i zarządzanie nimi .

Po dodaniu niestandardowego modelu do projektu Firebase możesz odwoływać się do modelu w swoich aplikacjach, używając określonej nazwy. W dowolnym momencie możesz wdrożyć nowy model TensorFlow Lite i pobrać nowy model na urządzenia użytkowników, wywołując getModel() (patrz poniżej).

2. Pobierz model na urządzenie i zainicjuj interpreter TensorFlow Lite

Aby użyć modelu TensorFlow Lite w swojej aplikacji, najpierw użyj narzędzia do pobierania modeli, aby pobrać najnowszą wersję modelu na urządzenie. Następnie utwórz instancję interpretera TensorFlow Lite z modelem.

Aby rozpocząć pobieranie modelu, wywołaj metodę getModel() do pobierania modeli, określając nazwę, którą przypisałeś modelowi podczas jego przesyłania, czy chcesz zawsze pobierać najnowszy model oraz warunki, na jakich chcesz zezwolić na pobieranie.

Możesz wybrać jeden z trzech sposobów pobierania:

Pobierz typ Opis
localModel Pobierz model lokalny z urządzenia. Jeśli nie ma dostępnego modelu lokalnego, zachowuje się to jak latestModel . Użyj tego typu pobierania, jeśli nie chcesz sprawdzać dostępności aktualizacji modelu. Na przykład używasz Zdalnej konfiguracji do pobierania nazw modeli i zawsze przesyłasz modele pod nowymi nazwami (zalecane).
localModelUpdateInBackground Pobierz model lokalny z urządzenia i rozpocznij aktualizację modelu w tle. Jeśli nie ma dostępnego modelu lokalnego, zachowuje się to jak latestModel .
latestModel Pobierz najnowszy model. Jeśli model lokalny jest najnowszą wersją, zwraca model lokalny. W przeciwnym razie pobierz najnowszy model. To zachowanie będzie blokować do momentu pobrania najnowszej wersji (niezalecane). Użyj tego zachowania tylko w przypadkach, gdy wyraźnie potrzebujesz najnowszej wersji.

Należy wyłączyć funkcje związane z modelem — na przykład wyszarzenie lub ukrycie części interfejsu użytkownika — do czasu potwierdzenia, że ​​model został pobrany.

FirebaseModelDownloader.instance
    .getModel(
        "yourModelName",
        FirebaseModelDownloadType.localModel,
        FirebaseModelDownloadConditions(
          iosAllowsCellularAccess: true,
          iosAllowsBackgroundDownloading: false,
          androidChargingRequired: false,
          androidWifiRequired: false,
          androidDeviceIdleRequired: false,
        )
    )
    .then((customModel) {
      // Download complete. Depending on your app, you could enable the ML
      // feature, or switch from the local model to the remote model, etc.

      // The CustomModel object contains the local path of the model file,
      // which you can use to instantiate a TensorFlow Lite interpreter.
      final localModelPath = customModel.file;

      // ...
    });

Wiele aplikacji uruchamia zadanie pobierania w swoim kodzie inicjującym, ale możesz to zrobić w dowolnym momencie, zanim będzie trzeba użyć modelu.

3. Wykonaj wnioskowanie na danych wejściowych

Teraz, gdy masz plik modelu na urządzeniu, możesz go użyć z interpreterem TensorFlow Lite do przeprowadzenia wnioskowania. W przypadku braku utrzymywanej biblioteki TensorFlow Lite dla Dart, konieczna będzie integracja z natywnymi bibliotekami TensorFlow Lite dla systemów iOS i Android.

Dodatek: Bezpieczeństwo modeli

Niezależnie od tego, w jaki sposób udostępnisz swoje modele TensorFlow Lite w Firebase ML, Firebase ML przechowuje je w standardowym, serializowanym formacie protobuf w pamięci lokalnej.

Teoretycznie oznacza to, że każdy może skopiować Twój model. Jednak w praktyce większość modeli jest tak specyficzna dla aplikacji i zaciemniona przez optymalizacje, że ryzyko jest podobne do ryzyka dezasemblacji i ponownego użycia Twojego kodu przez konkurencję. Niemniej jednak powinieneś być świadomy tego ryzyka, zanim użyjesz niestandardowego modelu w swojej aplikacji.