Google I/O 2022에서 Firebase의 새로운 기능을 확인하세요. 자세히 알아보기

Flutter와 함께 맞춤형 TensorFlow Lite 모델 사용

컬렉션을 사용해 정리하기 내 환경설정을 기준으로 콘텐츠를 저장하고 분류하세요.

앱에서 맞춤 TensorFlow Lite 모델을 사용하는 경우 Firebase ML을 사용하여 모델을 배포할 수 있습니다. Firebase를 사용하여 모델을 배포하면 앱의 새 버전을 출시하지 않고도 앱의 초기 다운로드 크기를 줄이고 앱의 ML 모델을 업데이트할 수 있습니다. 또한 원격 구성 및 A/B 테스팅을 통해 다양한 사용자 집합에 다양한 모델을 동적으로 제공할 수 있습니다.

TensorFlow Lite 모델

TensorFlow Lite 모델은 모바일 장치에서 실행하도록 최적화된 ML 모델입니다. TensorFlow Lite 모델을 가져오려면:

시작하기 전에

  1. 아직 설치하지 않은 경우 Flutter용 Firebase SDK를 설치하고 초기화합니다 .

  2. Flutter 프로젝트의 루트 디렉터리에서 다음 명령을 실행하여 ML 모델 다운로더 플러그인을 설치합니다.

    flutter pub add firebase_ml_model_downloader
    
  3. 프로젝트 재구축:

    flutter run
    

1. 모델 배포

Firebase 콘솔 또는 Firebase Admin Python 및 Node.js SDK를 사용하여 맞춤 TensorFlow 모델을 배포합니다. 사용자 지정 모델 배포 및 관리를 참조하십시오.

Firebase 프로젝트에 커스텀 모델을 추가한 후 지정한 이름을 사용하여 앱에서 모델을 참조할 수 있습니다. 언제든지 getModel() 을 호출하여 새 TensorFlow Lite 모델을 배포하고 새 모델을 사용자의 기기에 다운로드할 수 있습니다(아래 참조).

2. 모델을 기기에 다운로드하고 TensorFlow Lite 인터프리터를 초기화합니다.

앱에서 TensorFlow Lite 모델을 사용하려면 먼저 모델 다운로더를 사용하여 최신 버전의 모델을 기기에 다운로드하세요. 그런 다음 모델로 TensorFlow Lite 인터프리터를 인스턴스화합니다.

모델 다운로드를 시작하려면 모델 다운로더의 getModel() 메서드를 호출하여 모델을 업로드할 때 할당한 이름, 항상 최신 모델을 다운로드할지 여부, 다운로드를 허용할 조건을 지정합니다.

세 가지 다운로드 동작 중에서 선택할 수 있습니다.

다운로드 유형 설명
localModel 장치에서 로컬 모델을 가져옵니다. 사용 가능한 로컬 모델이 없는 경우 이는 latestModel 처럼 작동합니다. 모델 업데이트 확인에 관심이 없는 경우 이 다운로드 유형을 사용하십시오. 예를 들어 원격 구성을 사용하여 모델 이름을 검색하고 항상 새 이름으로 모델을 업로드합니다(권장).
localModelUpdateInBackground 장치에서 로컬 모델을 가져오고 백그라운드에서 모델 업데이트를 시작합니다. 사용 가능한 로컬 모델이 없는 경우 이는 latestModel 처럼 작동합니다.
latestModel 최신 모델을 받으십시오. 로컬 모델이 최신 버전이면 로컬 모델을 반환합니다. 그렇지 않으면 최신 모델을 다운로드하십시오. 이 동작은 최신 버전이 다운로드될 때까지 차단됩니다(권장하지 않음). 명시적으로 최신 버전이 필요한 경우에만 이 동작을 사용하십시오.

모델이 다운로드되었음을 확인할 때까지 모델 관련 기능(예: UI의 일부를 회색으로 표시하거나 숨기기)을 비활성화해야 합니다.

FirebaseModelDownloader.instance
    .getModel(
        "yourModelName",
        FirebaseModelDownloadType.localModel,
        FirebaseModelDownloadConditions(
          iosAllowsCellularAccess: true,
          iosAllowsBackgroundDownloading: false,
          androidChargingRequired: false,
          androidWifiRequired: false,
          androidDeviceIdleRequired: false,
        )
    )
    .then((customModel) {
      // Download complete. Depending on your app, you could enable the ML
      // feature, or switch from the local model to the remote model, etc.

      // The CustomModel object contains the local path of the model file,
      // which you can use to instantiate a TensorFlow Lite interpreter.
      final localModelPath = customModel.file;

      // ...
    });

많은 앱이 초기화 코드에서 다운로드 작업을 시작하지만 모델을 사용하기 전에 언제든지 시작할 수 있습니다.

3. 입력 데이터에 대한 추론 수행

이제 기기에 모델 파일이 있으므로 TensorFlow Lite 인터프리터와 함께 사용하여 추론을 수행할 수 있습니다. 이를 위해 다음과 같은 몇 가지 옵션이 있습니다.

부록: 모델 보안

TensorFlow Lite 모델을 Firebase ML에 제공하는 방법에 관계없이 Firebase ML은 표준 직렬화된 protobuf 형식으로 로컬 저장소에 저장합니다.

이론적으로 이것은 누구나 모델을 복사할 수 있음을 의미합니다. 그러나 실제로 대부분의 모델은 애플리케이션에 따라 다르고 최적화로 인해 난독화되어 경쟁업체가 코드를 분해하고 재사용하는 것과 유사한 위험이 있습니다. 그럼에도 불구하고 앱에서 사용자 지정 모델을 사용하기 전에 이러한 위험을 알고 있어야 합니다.