Modelos personalizados
Si es un desarrollador de ML con experiencia y los modelos prediseñados de ML Kit no satisfacen sus necesidades, puede usar un modelo personalizado de TensorFlow Lite con ML Kit.
Aloja tus modelos de TensorFlow Lite usando Firebase o empaquetalos con tu aplicación. Luego, use el SDK del kit de aprendizaje automático para realizar inferencias utilizando la mejor versión disponible de su modelo personalizado. Si aloja su modelo con Firebase, ML Kit actualiza automáticamente a sus usuarios con la última versión.
Capacidades clave
Alojamiento del modelo TensorFlow Lite | Aloje sus modelos usando Firebase para reducir el tamaño binario de su aplicación y asegurarse de que su aplicación siempre use la versión más reciente disponible de su modelo. |
Inferencia de aprendizaje automático en el dispositivo | Realice inferencias en una aplicación de iOS o Android mediante el SDK del kit de aprendizaje automático para ejecutar su modelo personalizado de TensorFlow Lite. El modelo puede incluirse en la aplicación, alojarse en la nube o ambos. |
Retroceso automático del modelo | Especifique múltiples fuentes de modelos; utilizar un modelo almacenado localmente cuando el modelo alojado en la nube no esté disponible |
Actualizaciones automáticas de modelos | Configura las condiciones bajo las cuales tu app descarga automáticamente nuevas versiones de tu modelo: cuando el dispositivo del usuario está inactivo, se está cargando o tiene conexión Wi-Fi |
Ruta de implementación
Entrena tu modelo TensorFlow | Cree y entrene un modelo personalizado con TensorFlow. O vuelva a entrenar un modelo existente que resuelva un problema similar al que desea lograr. Consulte la Guía para desarrolladores de TensorFlow Lite. | |
Convierta el modelo a TensorFlow Lite | Convierta su modelo del formato estándar de TensorFlow a TensorFlow Lite congelando el gráfico y luego usando TensorFlow Optimizing Converter (TOCO). Consulte la Guía para desarrolladores de TensorFlow Lite. | |
Aloja tu modelo de TensorFlow Lite con Firebase | Opcional: cuando alojas tu modelo de TensorFlow Lite con Firebase e incluyes el SDK del kit de aprendizaje automático en tu aplicación, el kit de aprendizaje automático mantiene a tus usuarios actualizados con la última versión de tu modelo. Puede configurar ML Kit para descargar automáticamente actualizaciones del modelo cuando el dispositivo del usuario esté inactivo o cargándose, o tenga una conexión Wi-Fi. | |
Utilice el modelo TensorFlow Lite para realizar inferencias | Utilice las API de modelo personalizadas de ML Kit en su aplicación de iOS o Android para realizar inferencias con su modelo alojado en Firebase o incluido en la aplicación. |