Modelos personalizados
Si usas modelos personalizados de TensorFlow Lite, Firebase ML puede servir para asegurarte de que tus usuarios usen siempre la mejor versión disponible de tu modelo personalizado. Cuando implementas tu modelo con Firebase, Firebase ML solo lo descarga cuando es necesario y actualiza automáticamente a los usuarios con la versión más reciente.
¿Todo listo para comenzar? Elige tu plataforma:
Funciones clave
Implementación de modelos de TensorFlow Lite | Implementa tus modelos con Firebase para reducir el tamaño binario de tu app y para asegurarte de que esta siempre utilice la versión disponible más reciente de tu modelo. |
Inferencia de AA integrada en el dispositivo | Realiza inferencias en una app para Apple o Android usando el intérprete de TensorFlow Lite con tu modelo. |
Actualizaciones de modelo automáticas | Configura las condiciones según las cuales tu app debe descargar automáticamente nuevas versiones de tu modelo: cuando el dispositivo del usuario esté inactivo o cargándose, o cuente con una conexión Wi-Fi. |
Ruta de implementación
Entrena tu modelo de TensorFlow | Crea y entrena un modelo personalizado con TensorFlow. O bien, vuelve a entrenar un modelo existente que solucione un problema similar a lo que quieres lograr. | |
Convierte el modelo en TensorFlow Lite | Convierte tu modelo del formato HDF5 o de gráfico congelado a TensorFlow Lite con el convertidor de TensorFlow Lite. | |
Implementa tu modelo de TensorFlow Lite en Firebase | Opcional: Cuando implementas tu modelo de TensorFlow Lite en Firebase y, además, incluyes el SDK de Firebase ML en tu app, Firebase ML mantiene a tus usuarios actualizados con la última versión de tu modelo. Puedes configurar AA de Firebase a fin de que descargue actualizaciones para el modelo de manera automática cuando el dispositivo del usuario esté inactivo o cargándose, o cuente con una conexión Wi-Fi. | |
Usa el modelo de TensorFlow Lite para realizar inferencias | Utiliza el intérprete de TensorFlow Lite en tu app para Apple o Android a fin de realizar inferencias con modelos implementados mediante Firebase. |
Codelabs
Realiza algunos codelabs y descubre en la práctica cómo Firebase puede ayudarte a usar los modelos de TensorFlow Lite con más facilidad y eficacia.