커스텀 모델

커스텀 TensorFlow Lite 모델을 사용하는 경우 Firebase ML을 사용하여 사용자가 항상 최고의 커스텀 모델 버전을 사용하도록 보장할 수 있습니다. Firebase를 사용하여 모델을 배포하면 Firebase ML이 필요할 때만 모델을 다운로드하고 자동으로 사용자를 최신 버전으로 업데이트합니다.


시작할 준비가 되셨나요? 플랫폼을 선택하세요.

iOS+, Android


주요 기능

TensorFlow Lite 모델 배포 Firebase로 모델을 배포하여 앱의 바이너리 크기를 줄이고 앱에서 항상 최신 모델 버전을 사용하도록 합니다.
기기별 ML 추론 TensorFlow Lite 인터프리터를 모델과 함께 사용하여 Apple 또는 Android 앱에서 추론을 수행합니다.
자동 모델 업데이트 사용자 기기가 유휴 상태이거나 충전 중이거나 Wi-Fi에 연결되는 등 앱이 모델의 새 버전을 자동으로 다운로드하는 조건을 구성합니다.

구현 경로

TensorFlow 모델 학습 TensorFlow를 사용하여 커스텀 모델을 제작하고 학습시킵니다. 또는 비슷한 문제를 해결하는 기존 모델을 다시 학습시킵니다.
모델을 TensorFlow Lite로 변환 TensorFlow Lite 변환기를 사용하여 모델을 HDF5 또는 고정 그래프 형식에서 TensorFlow Lite로 변환합니다.
TensorFlow Lite 모델을 Firebase에 배포 선택사항: Firebase로 TensorFlow Lite 모델을 배포하고 앱에 Firebase ML SDK를 포함하면 Firebase ML이 최신 버전의 모델을 사용하여 사용자를 최신 상태로 유지합니다. 사용자 기기가 유휴 상태이거나 충전 중이거나 Wi-Fi에 연결될 때 자동으로 모델 업데이트를 다운로드하도록 Firebase ML을 구성할 수 있습니다.
추론에 TensorFlow Lite 모델 사용 Apple 또는 Android 앱에서 TensorFlow Lite 인터프리터를 사용하여 Firebase를 통해 배포된 모델로 추론을 수행합니다.

Codelab

Firebase를 통해 보다 쉽고 효과적으로 TensorFlow Lite 모델을 사용하는 방법을 알아보려면 Codelab을 사용해 보세요.