커스텀 모델
커스텀 TensorFlow Lite 모델을 사용하는 경우 Firebase ML을 사용하여 사용자가 항상 최고의 커스텀 모델 버전을 사용하도록 보장할 수 있습니다. Firebase를 사용하여 모델을 배포하면 Firebase ML이 필요할 때만 모델을 다운로드하고 자동으로 사용자를 최신 버전으로 업데이트합니다.
시작할 준비가 되셨나요? 플랫폼을 선택하세요.
주요 기능
TensorFlow Lite 모델 배포 | Firebase로 모델을 배포하여 앱의 바이너리 크기를 줄이고 앱에서 항상 최신 모델 버전을 사용하도록 합니다. |
기기별 ML 추론 | TensorFlow Lite 인터프리터를 모델과 함께 사용하여 Apple 또는 Android 앱에서 추론을 수행합니다. |
자동 모델 업데이트 | 사용자 기기가 유휴 상태이거나 충전 중이거나 Wi-Fi에 연결되는 등 앱이 모델의 새 버전을 자동으로 다운로드하는 조건을 구성합니다. |
구현 경로
TensorFlow 모델 학습 | TensorFlow를 사용하여 커스텀 모델을 제작하고 학습시킵니다. 또는 비슷한 문제를 해결하는 기존 모델을 다시 학습시킵니다. | |
모델을 TensorFlow Lite로 변환 | TensorFlow Lite 변환기를 사용하여 모델을 HDF5 또는 고정 그래프 형식에서 TensorFlow Lite로 변환합니다. | |
TensorFlow Lite 모델을 Firebase에 배포 | 선택사항: Firebase로 TensorFlow Lite 모델을 배포하고 앱에 Firebase ML SDK를 포함하면 Firebase ML이 최신 버전의 모델을 사용하여 사용자를 최신 상태로 유지합니다. 사용자 기기가 유휴 상태이거나 충전 중이거나 Wi-Fi에 연결될 때 자동으로 모델 업데이트를 다운로드하도록 Firebase ML을 구성할 수 있습니다. | |
추론에 TensorFlow Lite 모델 사용 | Apple 또는 Android 앱에서 TensorFlow Lite 인터프리터를 사용하여 Firebase를 통해 배포된 모델로 추론을 수행합니다. |
Codelab
Firebase를 통해 보다 쉽고 효과적으로 TensorFlow Lite 모델을 사용하는 방법을 알아보려면 Codelab을 사용해 보세요.