커스텀 모델

숙련된 ML 개발자이며 ML Kit에서 기본 제공하는 모델이 요구사항에 맞지 않는 경우 ML Kit와 함께 커스텀 TensorFlow Lite 모델을 사용할 수 있습니다.

Firebase를 사용해 TensorFlow Lite 모델을 호스팅하거나 앱과 함께 패키징합니다. 그런 다음 ML Kit SDK를 사용하여 커스텀 모델에 가장 적합한 버전으로 추론을 수행합니다. Firebase로 모델을 호스팅하는 경우 ML Kit가 자동으로 사용자를 최신 버전으로 업데이트합니다.

iOS Android

주요 기능

Tensorflow Lite 모델 호스팅 Firebase로 모델을 호스팅하여 앱의 바이너리 크기를 줄이고 앱에서 항상 최신 모델 버전을 사용하도록 합니다.
기기별 ML 추론 ML Kit SDK로 커스텀 TensorFlow Lite 모델을 실행하여 iOS 또는 Android 앱에서 추론을 수행합니다. 모델을 앱과 번들로 묶거나 클라우드에서 호스팅할 수 있으며 두 방식을 함께 사용해도 됩니다.
자동 모델 대체 여러 모델 소스를 지정합니다. 클라우드 호스팅 모델을 사용할 수 없는 경우 로컬에 저장된 모델을 사용합니다.
자동 모델 업데이트 사용자 기기가 유휴 상태이거나 충전 중이거나 Wi-Fi에 연결되는 등 앱이 모델의 새 버전을 자동으로 다운로드하는 조건을 구성합니다.

구현 경로

TensorFlow 모델 학습 TensorFlow를 사용하여 커스텀 모델을 제작하고 학습시킵니다. 또는 비슷한 문제를 해결하는 기존 모델을 다시 학습시킵니다. TensorFlow Lite 개발자 가이드를 참조하세요.
모델을 TensorFlow Lite로 변환 그래프를 고정한 다음 TOCO(TensorFlow Optimizing Converter)를 사용하여 모델을 표준 TensorFlow 형식에서 TensorFlow Lite로 변환합니다. TensorFlow Lite 개발자 가이드를 참조하세요.
Firebase로 TensorFlow Lite 모델 호스팅 선택사항: Firebase로 TensorFlow Lite 모델을 호스팅하고 앱에 ML Kit SDK를 포함하면 ML Kit가 사용자의 모델을 최신 버전으로 유지합니다. 사용자 기기가 유휴 상태이거나 충전 중이거나 Wi-Fi에 연결될 때 자동으로 모델 업데이트를 다운로드하도록 ML Kit를 구성할 수 있습니다.
추론에 TensorFlow Lite 모델 사용 iOS 또는 Android 앱에서 ML Kit의 커스텀 모델 API를 사용하여 Firebase에서 호스팅하거나 앱과 번들로 묶인 모델로 추론을 수행합니다.