Agregue clasificación de texto en el dispositivo a su aplicación con TensorFlow Lite y Firebase - Android Codelab

1. Información general

texto-clasificación-resultado.png

Bienvenido a la clasificación de texto con TensorFlow Lite y el codelab de Firebase. En este laboratorio de código, aprenderá a usar TensorFlow Lite y Firebase para entrenar e implementar un modelo de clasificación de texto en su aplicación. Este laboratorio de programación se basa en este ejemplo de TensorFlow Lite.

La clasificación de texto es el proceso de asignar etiquetas o categorías al texto según su contenido. Es una de las tareas fundamentales en el Procesamiento del Lenguaje Natural (NLP) con amplias aplicaciones como el análisis de sentimientos, el etiquetado de temas, la detección de spam y la detección de intenciones.

El análisis de sentimientos es la interpretación y clasificación de las emociones (positivas, negativas y neutras) dentro de los datos de texto utilizando técnicas de análisis de texto. El análisis de sentimiento permite a las empresas identificar el sentimiento del cliente hacia productos, marcas o servicios en conversaciones y comentarios en línea.

Este tutorial muestra cómo construir un modelo de aprendizaje automático para el análisis de sentimientos, en particular, clasificar el texto como positivo o negativo. Este es un ejemplo de clasificación binaria, o de dos clases, un tipo de problema de aprendizaje automático importante y ampliamente aplicable.

lo que aprenderás

  • Entrene modelos de análisis de sentimientos de TF Lite con TF Lite Model Maker
  • Implemente modelos TF Lite en Firebase ML y acceda a ellos desde su aplicación
  • Integre los modelos de análisis de sentimientos de TF Lite en su aplicación utilizando la biblioteca de tareas de TF Lite

Lo que necesitarás

  • Última versión de Android Studio .
  • Código de muestra.
  • Un dispositivo de prueba con Android 5.0+ y servicios de Google Play 9.8 o posterior, o un emulador con servicios de Google Play 9.8 o posterior
  • Si usa un dispositivo, un cable de conexión.

¿Cómo utilizará este tutorial?

Léalo solo Léelo y completa los ejercicios.

¿Cómo calificaría su experiencia con la creación de aplicaciones de Android?

Principiante Intermedio Competente

2. Obtenga el código de muestra

Clone el repositorio de GitHub desde la línea de comandos.

$ git clone https://github.com/FirebaseExtended/codelab-textclassification-android.git

Si no tiene git instalado, también puede descargar el proyecto de muestra desde su página de GitHub o haciendo clic en este enlace .

3. Importa la aplicación de inicio

Desde Android Studio, seleccione el directorio codelab-textclassification-android-master ( carpeta_estudio_de_android.png ) de la descarga del código de muestra ( Archivo > Abrir > .../codelab-textclassification-android-master/start).

Ahora debería tener el proyecto de inicio abierto en Android Studio.

4. Ejecute la aplicación de inicio

Ahora que ha importado el proyecto a Android Studio, está listo para ejecutar la aplicación por primera vez. Conecte su dispositivo Android y haga clic en Ejecutar ( ejecutar.png ) en la barra de herramientas de Android Studio.

La aplicación debería iniciarse en su dispositivo. Solo contiene una interfaz de usuario simple que facilita la integración y la prueba de modelos de clasificación de texto en los siguientes pasos. En este punto, si intenta predecir sentimientos, la aplicación solo arrojará algunos resultados ficticios.

2fb4e69fafb2e3ed.png

5. Crear proyecto de consola de Firebase

Agregar Firebase al proyecto

  1. Ve a la consola de Firebase .
  2. Seleccione Agregar proyecto .
  3. Seleccione o ingrese un nombre de proyecto.
  4. Siga los pasos de configuración restantes en la consola de Firebase, luego haga clic en Crear proyecto (o Agregar Firebase, si está usando un proyecto de Google existente).

6. Agregue Firebase a la aplicación

  1. Desde la pantalla de descripción general de su nuevo proyecto, haga clic en el icono de Android para iniciar el flujo de trabajo de configuración.
  2. Ingrese el nombre del paquete del codelab: org.tensorflow.lite.codelabs.textclassification

Agregue el archivo google-services.json a su aplicación

Después de agregar el nombre del paquete y seleccionar Registrarse**, haga clic en Descargar google-services.json** para obtener su archivo de configuración de Firebase Android y luego copie el archivo google-services.json en el directorio * app * de su proyecto.

Agregue el complemento de servicios de Google a su aplicación

Siga las instrucciones en Firebase Console para actualizar los archivos build.gradle.kts para agregar Firebase a su aplicación.

El complemento de google-services usa el archivo google-services.json para configurar su aplicación para usar Firebase.

Sincroniza tu proyecto con archivos gradle

Para asegurarse de que todas las dependencias estén disponibles para su aplicación, debe sincronizar su proyecto con archivos gradle en este punto. Seleccione Archivo > Proyecto de sincronización con archivos Gradle en la barra de herramientas de Android Studio.

7. Ejecute la aplicación con Firebase

Ahora que configuró el complemento google-services con su archivo JSON, está listo para ejecutar la aplicación con Firebase. Conecte su dispositivo Android y haga clic en Ejecutar ( ejecutar.png ) en la barra de herramientas de Android Studio.

La aplicación debería iniciarse en su dispositivo. En este punto, su aplicación aún debería compilarse correctamente.

8. Entrena un modelo de análisis de sentimientos

Usaremos TensorFlow Lite Model Maker para entrenar un modelo de clasificación de texto para predecir la opinión de un texto determinado.

Este paso se presenta como un cuaderno de Python que puede abrir en Google Colab. Puede elegir Tiempo de ejecución > Ejecutar todo para ejecutar todo el cuaderno a la vez.

Abrir en colaboración

Después de terminar este paso, tendrá un modelo de análisis de opinión de TensorFlow Lite que está listo para implementarse en una aplicación móvil.

9. Implementa un modelo en Firebase ML

La implementación de un modelo en Firebase ML es útil por dos razones principales:

  1. Podemos mantener el tamaño de instalación de la aplicación pequeño y solo descargar el modelo si es necesario
  2. El modelo se puede actualizar regularmente y con un ciclo de lanzamiento diferente al de toda la aplicación.

El modelo se puede implementar a través de la consola o mediante programación, usando el SDK de administración de Firebase. En este paso, implementaremos a través de la consola.

Primero, abra Firebase Console y haga clic en Machine Learning en el panel de navegación izquierdo. Haga clic en 'Comenzar' si está abriendo esta primera vez. Luego navegue hasta "Personalizar" y haga clic en el botón "Agregar modelo".

Cuando se le solicite, nombre el modelo sentiment_analysis y cargue el archivo que descargó de Colab en el paso anterior.

3c3c50e6ef12b3b.png

10. Descargar modelo de Firebase ML

Elegir cuándo descargar el modelo remoto de Firebase a su aplicación puede ser complicado, ya que los modelos TFLite pueden crecer relativamente. Idealmente, queremos evitar cargar el modelo inmediatamente cuando se inicia la aplicación, ya que si nuestro modelo se usa solo para una función y el usuario nunca usa esa función, habremos descargado una cantidad significativa de datos sin ningún motivo. También podemos configurar opciones de descarga, como solo buscar modelos cuando está conectado a wifi. Si desea asegurarse de que el modelo esté disponible incluso sin conexión a la red, es importante incluirlo también sin la aplicación como respaldo.

En aras de la simplicidad, eliminaremos el modelo incluido predeterminado y siempre descargaremos un modelo de Firebase cuando la aplicación se inicie por primera vez. De esta forma, al ejecutar el análisis de opiniones, puede estar seguro de que la inferencia se ejecuta con el modelo proporcionado por Firebase.

En el archivo app/build.gradle.kts , agregue la dependencia de Firebase Machine Learning.

aplicación/build.gradle.kts

Encuentra este comentario:

// TODO 1: Add Firebase ML dependency

Luego añade:

implementation(platform("com.google.firebase:firebase-bom:32.0.0"))
implementation("com.google.firebase:firebase-ml-modeldownloader:24.1.2")

Cuando Android Studio le solicite que sincronice su proyecto, elija Sincronizar ahora .

Luego, agreguemos un código para descargar el modelo de Firebase.

MainActivity.java

Encuentra este comentario:

// TODO 2: Implement a method to download TFLite model from Firebase

Luego añade:

  /** Download model from Firebase ML. */
  private synchronized void downloadModel(String modelName) {
      CustomModelDownloadConditions conditions = new CustomModelDownloadConditions.Builder()
            .requireWifi()
            .build();
      FirebaseModelDownloader.getInstance()
              .getModel("sentiment_analysis", DownloadType.LOCAL_MODEL, conditions)
              .addOnSuccessListener(model -> {
                  try {
                      // TODO 6: Initialize a TextClassifier with the downloaded model

                      predictButton.setEnabled(true);
                  } catch (IOException e) {
                      Log.e(TAG, "Failed to initialize the model. ", e);
                      Toast.makeText(
                              MainActivity.this,
                              "Model initialization failed.",
                              Toast.LENGTH_LONG)
                              .show();
                      predictButton.setEnabled(false);
                  }
              })
              .addOnFailureListener(e -> {
                      Log.e(TAG, "Failed to download the model. ", e);
                      Toast.makeText(
                              MainActivity.this,
                              "Model download failed, please check your connection.",
                              Toast.LENGTH_LONG)
                              .show();

                      }
              );

}

A continuación, llama al método downloadModel en el método onCreate de la actividad.

MainActivity.java

Encuentra este comentario:

// TODO 3: Call the method to download TFLite model

Luego añade:

downloadModel("sentiment_analysis");

11. Integra el modelo en tu app

La biblioteca de tareas de Tensorflow Lite lo ayuda a integrar modelos de TensorFlow Lite en su aplicación con solo unas pocas líneas de código. Inicializaremos una instancia NLClassifier usando el modelo TensorFlow Lite descargado de Firebase. Luego lo usaremos para clasificar la entrada de texto de los usuarios de la aplicación y mostrar el resultado en la interfaz de usuario.

Agregar la dependencia

Vaya al archivo Gradle de la aplicación y agregue la biblioteca de tareas de TensorFlow Lite (texto) en las dependencias de la aplicación.

aplicación/construir.gradle

Encuentra este comentario:

// TODO 4: Add TFLite Task API (Text) dependency

Luego añade:

implementation("org.tensorflow:tensorflow-lite-task-text:0.3.0")

Cuando Android Studio le solicite que sincronice su proyecto, elija Sincronizar ahora .

Inicializar un clasificador de texto

Luego cargaremos el modelo de análisis de sentimiento descargado de Firebase usando el NLClassifier de la biblioteca de tareas.

MainActivity.java

Declaremos una variable de instancia de NLClassifier. Encuentra este comentario:

// TODO 5: Define a NLClassifier variable

Luego añade:

private NLClassifier textClassifier;

Inicialice la variable textClassifier con el modelo de análisis de opinión descargado de Firebase. Encuentra este comentario:

// TODO 6: Initialize a TextClassifier with the downloaded model

Luego añade:

textClassifier = NLClassifier.createFromFile(model.getFile());

Clasificar texto

Una vez que se ha configurado la instancia textClassifier , puede ejecutar un análisis de opinión con una única llamada de método.

MainActivity.java

Encuentra este comentario:

// TODO 7: Run sentiment analysis on the input text

Luego añade:

List<Category> results = textClassifier.classify(text);

Implementar el posprocesamiento

Finalmente, convertiremos la salida del modelo en un texto descriptivo para mostrar en la pantalla.

MainActivity.java

Encuentra este comentario:

// TODO 8: Convert the result to a human-readable text

Elimina el código que genera el texto del resultado ficticio:

String textToShow = "Dummy classification result.\n";

Luego añade:

String textToShow = "Input: " + text + "\nOutput:\n";
for (int i = 0; i < results.size(); i++) {
  Category result = results.get(i);
  textToShow += String.format("    %s: %s\n", result.getLabel(),
                              result.getScore());
}
textToShow += "---------\n";

12. Ejecute la aplicación final

Has integrado el modelo de análisis de opiniones en la aplicación, así que vamos a probarlo. Conecte su dispositivo Android y haga clic en Ejecutar ( ejecutar.png ) en la barra de herramientas de Android Studio.

La aplicación debería poder predecir correctamente el sentimiento de la reseña de la película que ingresa.

img/resultado-de-clasificación-de-texto.png

13. Mejora la aplicación con más funciones de Firebase

Además de alojar sus modelos TFLite, Firebase ofrece otras funciones para potenciar sus casos de uso de aprendizaje automático:

  • Firebase Performance Monitoring para medir la velocidad de inferencia de su modelo que se ejecuta en el dispositivo de los usuarios.
  • Firebase Analytics para medir qué tan bien se desempeña su modelo en producción midiendo la reacción del usuario.
  • Firebase A/B Testing para probar múltiples versiones de su modelo
  • ¿Recordaste que entrenamos dos versiones de nuestro modelo TFLite anteriormente? ¡Las pruebas A/B son una buena manera de averiguar qué versión funciona mejor en producción!

Para obtener más información sobre cómo aprovechar estas funciones en su aplicación, consulte los laboratorios de código a continuación:

14. ¡Felicidades!

En este laboratorio de programación, aprendió a entrenar un modelo TFLite de análisis de sentimientos y a implementarlo en su aplicación móvil con Firebase. Para obtener más información sobre TFLite y Firebase, eche un vistazo a otras muestras de TFLite y las guías de inicio de Firebase.

Lo que hemos cubierto

  • TensorFlow Lite
  • Base de fuego ML

Próximos pasos

  • Mida la velocidad de inferencia de su modelo con Firebase Performance Monitoring.
  • Implemente el modelo de Colab directamente en Firebase a través de la API de administración de modelos de aprendizaje automático de Firebase.
  • Agregue un mecanismo para permitir que los usuarios envíen comentarios sobre el resultado de la predicción y use Firebase Analytics para realizar un seguimiento de los comentarios de los usuarios.
  • Realice pruebas A/B del modelo Vector de palabra promedio y el modelo MobileBERT con pruebas A/B de Firebase.

Aprende más

¿Tengo una pregunta?

Informar problemas