Catch up on everything announced at Firebase Summit, and learn how Firebase can help you accelerate app development and run your app with confidence. Learn More
Organiza tus páginas con colecciones Guarda y categoriza el contenido según tus preferencias.

Modelos personalizados

Si es un desarrollador de ML experimentado y los modelos preconstruidos de ML Kit no satisfacen sus necesidades, puede usar un modelo TensorFlow Lite personalizado con ML Kit.

Aloja tus modelos de TensorFlow Lite con Firebase o empaquetalos con tu aplicación. Luego, use el SDK de ML Kit para realizar inferencias usando la mejor versión disponible de su modelo personalizado. Si aloja su modelo con Firebase, ML Kit actualiza automáticamente a sus usuarios con la versión más reciente.

iOSAndroid _

Capacidades clave

Alojamiento de modelos TensorFlow Lite Aloje sus modelos usando Firebase para reducir el tamaño binario de su aplicación y para asegurarse de que su aplicación siempre use la versión más reciente disponible de su modelo.
Inferencia de ML en el dispositivo Realice inferencias en una aplicación de iOS o Android mediante el SDK de ML Kit para ejecutar su modelo TensorFlow Lite personalizado. El modelo se puede empaquetar con la aplicación, hospedarse en la nube o ambos.
Respaldo automático del modelo Especifique múltiples fuentes de modelos; use un modelo almacenado localmente cuando el modelo alojado en la nube no esté disponible
Actualizaciones automáticas de modelos Configure las condiciones bajo las cuales su aplicación descarga automáticamente nuevas versiones de su modelo: cuando el dispositivo del usuario está inactivo, se está cargando o tiene una conexión Wi-Fi

Ruta de implementación

Entrena tu modelo de TensorFlow Cree y entrene un modelo personalizado con TensorFlow. O vuelva a entrenar un modelo existente que resuelva un problema similar al que desea lograr. Consulte la Guía para desarrolladores de TensorFlow Lite.
Convierte el modelo a TensorFlow Lite Convierte tu modelo del formato estándar de TensorFlow a TensorFlow Lite congelando el gráfico y luego usando el convertidor de optimización de TensorFlow (TOCO). Consulte la Guía para desarrolladores de TensorFlow Lite.
Aloje su modelo TensorFlow Lite con Firebase Opcional: cuando aloja su modelo de TensorFlow Lite con Firebase e incluye el SDK de ML Kit en su aplicación, ML Kit mantiene a sus usuarios actualizados con la última versión de su modelo. Puede configurar ML Kit para descargar automáticamente actualizaciones de modelos cuando el dispositivo del usuario esté inactivo o cargándose, o tenga una conexión Wi-Fi.
Use el modelo TensorFlow Lite para la inferencia Use las API del modelo personalizado de ML Kit en su aplicación de iOS o Android para realizar inferencias con su modelo alojado en Firebase o incluido en la aplicación.