Modelos personalizados
Si eres un desarrollador con experiencia en el AA, pero los modelos integrados del ML Kit no satisfacen tus necesidades, puedes usar un modelo personalizado de TensorFlow Lite con el ML Kit.
Aloja tus modelos de TensorFlow Lite con Firebase o empaquétalos con tu app. Luego, usa el SDK del ML Kit para realizar inferencias. Para ello, usa la mejor versión disponible de tu modelo personalizado. Si alojas tu modelo con Firebase, el ML Kit actualiza automáticamente a tus usuarios con la versión más reciente.
Funciones clave
Hosting del modelo de TensorFlow Lite | Aloja tus modelos con Firebase para reducir el tamaño binario de tu app y para asegurarte de que esta siempre utilice la versión disponible más reciente de tu modelo. |
Inferencia de AA en el dispositivo | Realiza inferencias en una app para iOS o Android mediante el uso del SDK del ML Kit para ejecutar tu modelo de TensorFlow Lite personalizado. El modelo puede asociarse con la app, alojarse en Cloud, o ambas opciones. |
Resguardo automático del modelo | Especifica múltiples fuentes del modelo; usa un modelo almacenado localmente cuando no esté disponible el alojado en la nube. |
Actualizaciones de modelo automáticas | Configura las condiciones según las cuales tu app debe descargar automáticamente nuevas versiones de tu modelo: cuando el dispositivo del usuario esté inactivo o cargándose, o cuente con una conexión Wi-Fi. |
Ruta de implementación
Entrena tu modelo de TensorFlow | Crea y entrena un modelo personalizado con TensorFlow. O bien, vuelve a entrenar un modelo existente que solucione un problema similar a lo que quieres lograr. Consulta la Guía para desarrolladores de TensorFlow Lite. | |
Convierte el modelo en TensorFlow Lite | Para convertir tu modelo de un formato estándar de TensorFlow a TensorFlow Lite, puedes inmovilizar el gráfico y usar el Convertidor de optimización de TensorFlow (TOCO). Consulta la Guía para desarrolladores de TensorFlow Lite. | |
Aloja tu modelo de TensorFlow Lite a través de Firebase | Opcional: Cuando alojas tu modelo de TensorFlow Lite a través de Firebase y agregas el SDK del ML Kit, este último mantiene a tus usuarios actualizados con la versión más reciente de tu modelo. Puedes configurar el ML Kit para que descargue actualizaciones para el modelo de manera automática cuando el dispositivo del usuario esté inactivo o cargándose, o cuente con una conexión Wi-Fi. | |
Usa el modelo de TensorFlow Lite para realizar inferencias | Usa las API del modelo personalizado del ML Kit en tu app para iOS o Android a fin de realizar inferencias con el modelo alojado en Firebase o asociado con la app. |