Catch up on everything announced at Firebase Summit, and learn how Firebase can help you accelerate app development and run your app with confidence. Learn More
Organiza tus páginas con colecciones Guarda y categoriza el contenido según tus preferencias.

Modelos personalizados

Si usa modelos personalizados de TensorFlow Lite , Firebase ML puede ayudarlo a asegurarse de que sus usuarios siempre usen la mejor versión disponible de su modelo personalizado. Cuando implementa su modelo con Firebase, Firebase ML solo descarga el modelo cuando es necesario y actualiza automáticamente a sus usuarios con la versión más reciente.

iOS+ Android

Capacidades clave

Implementación del modelo TensorFlow Lite Implemente sus modelos con Firebase para reducir el tamaño binario de su aplicación y asegurarse de que su aplicación siempre use la versión más reciente disponible de su modelo.
Inferencia de ML en el dispositivo Realice inferencias en una aplicación de Apple o Android usando el intérprete de TensorFlow Lite con su modelo.
Actualizaciones automáticas de modelos Configure las condiciones bajo las cuales su aplicación descarga automáticamente nuevas versiones de su modelo: cuando el dispositivo del usuario está inactivo, se está cargando o tiene una conexión Wi-Fi

Ruta de implementación

Entrena tu modelo de TensorFlow Cree y entrene un modelo personalizado con TensorFlow. O vuelva a entrenar un modelo existente que resuelva un problema similar al que desea lograr.
Convierte el modelo a TensorFlow Lite Convierta su modelo de HDF5 o formato gráfico congelado a TensorFlow Lite usando el convertidor TensorFlow Lite .
Implemente su modelo de TensorFlow Lite en Firebase Opcional: cuando implementa su modelo de TensorFlow Lite en Firebase e incluye el SDK de Firebase ML en su aplicación, Firebase ML mantiene a sus usuarios actualizados con la versión más reciente de su modelo. Puede configurarlo para que descargue automáticamente las actualizaciones del modelo cuando el dispositivo del usuario esté inactivo o cargándose, o tenga una conexión Wi-Fi.
Use el modelo TensorFlow Lite para la inferencia Usa el intérprete de TensorFlow Lite en tu aplicación de Apple o Android para realizar inferencias con modelos implementados con Firebase.

Laboratorios de código

Pruebe algunos codelabs para aprender de forma práctica cómo Firebase puede ayudarlo a usar los modelos de TensorFlow Lite de manera más fácil y efectiva.