Bezpiecznie rozpoznaj punkty orientacyjne dzięki Cloud Vision, korzystając z uwierzytelniania i funkcji Firebase na Androidzie

Aby wywołać Google Cloud API ze swojej aplikacji, musisz utworzyć pośredni interfejs REST API, który obsługuje autoryzację i chroni tajne wartości, takie jak klucze API. Następnie musisz napisać kod w aplikacji mobilnej, aby uwierzytelnić się i komunikować się z tą usługą pośrednią.

Jednym ze sposobów utworzenia tego interfejsu API REST jest użycie uwierzytelniania i funkcji Firebase, które zapewniają zarządzaną, bezserwerową bramę do interfejsów API Google Cloud, która obsługuje uwierzytelnianie i można ją wywołać z aplikacji mobilnej za pomocą wstępnie utworzonych pakietów SDK.

W tym przewodniku pokazano, jak używać tej techniki do wywoływania interfejsu API Cloud Vision z aplikacji. Ta metoda umożliwi wszystkim uwierzytelnionym użytkownikom dostęp do płatnych usług Cloud Vision za pośrednictwem projektu w chmurze, dlatego przed kontynuowaniem zastanów się, czy ten mechanizm uwierzytelniania jest wystarczający w Twoim przypadku użycia.

Zanim zaczniesz

Skonfiguruj swój projekt

  1. Jeśli jeszcze tego nie zrobiłeś, dodaj Firebase do swojego projektu na Androida .
  2. Jeśli nie włączyłeś jeszcze interfejsów API opartych na chmurze w swoim projekcie, zrób to teraz:

    1. Otwórz stronę interfejsów API Firebase ML w konsoli Firebase.
    2. Jeśli nie uaktualniłeś jeszcze swojego projektu do planu cenowego Blaze, kliknij Uaktualnij , aby to zrobić. (Zostaniesz poproszony o uaktualnienie tylko wtedy, gdy Twój projekt nie jest objęty planem Blaze.)

      Tylko projekty na poziomie Blaze mogą korzystać z interfejsów API opartych na chmurze.

    3. Jeśli interfejsy API oparte na chmurze nie są jeszcze włączone, kliknij opcję Włącz interfejsy API oparte na chmurze .
  3. Skonfiguruj istniejące klucze Firebase API, aby uniemożliwić dostęp do Cloud Vision API:
    1. Otwórz stronę Poświadczenia w konsoli Cloud.
    2. Dla każdego klucza API na liście otwórz widok do edycji i w sekcji Ograniczenia kluczy dodaj do listy wszystkie dostępne interfejsy API z wyjątkiem Cloud Vision API.

Wdróż funkcję wywoływalną

Następnie wdróż funkcję Cloud, której będziesz używać do łączenia swojej aplikacji z interfejsem API Cloud Vision. Repozytorium functions-samples zawiera przykład, którego możesz użyć.

Domyślnie dostęp do Cloud Vision API za pośrednictwem tej funkcji umożliwi dostęp do Cloud Vision API tylko uwierzytelnionym użytkownikom Twojej aplikacji. Funkcję można modyfikować pod kątem różnych wymagań.

Aby wdrożyć funkcję:

  1. Sklonuj lub pobierz repozytorium funkcji i przejdź do katalogu Node-1st-gen/vision-annotate-image :
    git clone https://github.com/firebase/functions-samples
    cd Node-1st-gen/vision-annotate-image
    
  2. Zainstaluj zależności:
    cd functions
    npm install
    cd ..
    
  3. Jeśli nie masz interfejsu CLI Firebase, zainstaluj go .
  4. Zainicjuj projekt Firebase w katalogu vision-annotate-image . Po wyświetleniu monitu wybierz projekt z listy.
    firebase init
  5. Wdróż funkcję:
    firebase deploy --only functions:annotateImage

Dodaj uwierzytelnianie Firebase do swojej aplikacji

Wdrożona powyżej funkcja wywoływalna odrzuci każde żądanie od nieuwierzytelnionych użytkowników Twojej aplikacji. Jeśli jeszcze tego nie zrobiłeś, musisz dodać Firebase Auth do swojej aplikacji.

Dodaj niezbędne zależności do swojej aplikacji

  • Dodaj zależności dla bibliotek Cloud Functions for Firebase (klient) i gson Android do pliku Gradle modułu (na poziomie aplikacji) (zwykle <project>/<app-module>/build.gradle.kts lub <project>/<app-module>/build.gradle ):
    implementation("com.google.firebase:firebase-functions:20.4.0")
    implementation("com.google.code.gson:gson:2.8.6")
  • 1. Przygotuj obraz wejściowy

    Aby wywołać Cloud Vision, obraz musi być sformatowany jako ciąg znaków zakodowany w standardzie Base64. Aby przetworzyć obraz z zapisanego pliku URI:
    1. Pobierz obraz jako obiekt Bitmap :

      Kotlin+KTX

      var bitmap: Bitmap = MediaStore.Images.Media.getBitmap(contentResolver, uri)
      

      Java

      Bitmap bitmap = MediaStore.Images.Media.getBitmap(getContentResolver(), uri);
    2. Opcjonalnie zmniejsz obraz, aby zaoszczędzić na przepustowości. Zobacz zalecane rozmiary obrazów Cloud Vision.

      Kotlin+KTX

      private fun scaleBitmapDown(bitmap: Bitmap, maxDimension: Int): Bitmap {
          val originalWidth = bitmap.width
          val originalHeight = bitmap.height
          var resizedWidth = maxDimension
          var resizedHeight = maxDimension
          if (originalHeight > originalWidth) {
              resizedHeight = maxDimension
              resizedWidth =
                  (resizedHeight * originalWidth.toFloat() / originalHeight.toFloat()).toInt()
          } else if (originalWidth > originalHeight) {
              resizedWidth = maxDimension
              resizedHeight =
                  (resizedWidth * originalHeight.toFloat() / originalWidth.toFloat()).toInt()
          } else if (originalHeight == originalWidth) {
              resizedHeight = maxDimension
              resizedWidth = maxDimension
          }
          return Bitmap.createScaledBitmap(bitmap, resizedWidth, resizedHeight, false)
      }

      Java

      private Bitmap scaleBitmapDown(Bitmap bitmap, int maxDimension) {
          int originalWidth = bitmap.getWidth();
          int originalHeight = bitmap.getHeight();
          int resizedWidth = maxDimension;
          int resizedHeight = maxDimension;
      
          if (originalHeight > originalWidth) {
              resizedHeight = maxDimension;
              resizedWidth = (int) (resizedHeight * (float) originalWidth / (float) originalHeight);
          } else if (originalWidth > originalHeight) {
              resizedWidth = maxDimension;
              resizedHeight = (int) (resizedWidth * (float) originalHeight / (float) originalWidth);
          } else if (originalHeight == originalWidth) {
              resizedHeight = maxDimension;
              resizedWidth = maxDimension;
          }
          return Bitmap.createScaledBitmap(bitmap, resizedWidth, resizedHeight, false);
      }

      Kotlin+KTX

      // Scale down bitmap size
      bitmap = scaleBitmapDown(bitmap, 640)

      Java

      // Scale down bitmap size
      bitmap = scaleBitmapDown(bitmap, 640);
    3. Konwertuj obiekt bitmapowy na ciąg zakodowany w formacie base64:

      Kotlin+KTX

      // Convert bitmap to base64 encoded string
      val byteArrayOutputStream = ByteArrayOutputStream()
      bitmap.compress(Bitmap.CompressFormat.JPEG, 100, byteArrayOutputStream)
      val imageBytes: ByteArray = byteArrayOutputStream.toByteArray()
      val base64encoded = Base64.encodeToString(imageBytes, Base64.NO_WRAP)

      Java

      // Convert bitmap to base64 encoded string
      ByteArrayOutputStream byteArrayOutputStream = new ByteArrayOutputStream();
      bitmap.compress(Bitmap.CompressFormat.JPEG, 100, byteArrayOutputStream);
      byte[] imageBytes = byteArrayOutputStream.toByteArray();
      String base64encoded = Base64.encodeToString(imageBytes, Base64.NO_WRAP);
    4. Obraz reprezentowany przez obiekt Bitmap musi być ustawiony pionowo i nie jest wymagany żaden dodatkowy obrót.

    2. Wywołaj wywoływaną funkcję, aby rozpoznać punkty orientacyjne

    Aby rozpoznać punkty orientacyjne na obrazie, wywołaj funkcję wywoływalną, przekazując żądanie JSON Cloud Vision .

    1. Najpierw zainicjuj instancję Cloud Functions:

      Kotlin+KTX

      private lateinit var functions: FirebaseFunctions
      // ...
      functions = Firebase.functions
      

      Java

      private FirebaseFunctions mFunctions;
      // ...
      mFunctions = FirebaseFunctions.getInstance();
      
    2. Zdefiniuj metodę wywoływania funkcji:

      Kotlin+KTX

      private fun annotateImage(requestJson: String): Task<JsonElement> {
          return functions
              .getHttpsCallable("annotateImage")
              .call(requestJson)
              .continueWith { task ->
                  // This continuation runs on either success or failure, but if the task
                  // has failed then result will throw an Exception which will be
                  // propagated down.
                  val result = task.result?.data
                  JsonParser.parseString(Gson().toJson(result))
              }
      }
      

      Java

      private Task<JsonElement> annotateImage(String requestJson) {
          return mFunctions
                  .getHttpsCallable("annotateImage")
                  .call(requestJson)
                  .continueWith(new Continuation<HttpsCallableResult, JsonElement>() {
                      @Override
                      public JsonElement then(@NonNull Task<HttpsCallableResult> task) {
                          // This continuation runs on either success or failure, but if the task
                          // has failed then getResult() will throw an Exception which will be
                          // propagated down.
                          return JsonParser.parseString(new Gson().toJson(task.getResult().getData()));
                      }
                  });
      }
      
    3. Utwórz żądanie JSON z typem LANDMARK_DETECTION :

      Kotlin+KTX

      // Create json request to cloud vision
      val request = JsonObject()
      // Add image to request
      val image = JsonObject()
      image.add("content", JsonPrimitive(base64encoded))
      request.add("image", image)
      // Add features to the request
      val feature = JsonObject()
      feature.add("maxResults", JsonPrimitive(5))
      feature.add("type", JsonPrimitive("LANDMARK_DETECTION"))
      val features = JsonArray()
      features.add(feature)
      request.add("features", features)
      

      Java

      // Create json request to cloud vision
      JsonObject request = new JsonObject();
      // Add image to request
      JsonObject image = new JsonObject();
      image.add("content", new JsonPrimitive(base64encoded));
      request.add("image", image);
      //Add features to the request
      JsonObject feature = new JsonObject();
      feature.add("maxResults", new JsonPrimitive(5));
      feature.add("type", new JsonPrimitive("LANDMARK_DETECTION"));
      JsonArray features = new JsonArray();
      features.add(feature);
      request.add("features", features);
      
    4. Na koniec wywołaj funkcję:

      Kotlin+KTX

      annotateImage(request.toString())
          .addOnCompleteListener { task ->
              if (!task.isSuccessful) {
                  // Task failed with an exception
                  // ...
              } else {
                  // Task completed successfully
                  // ...
              }
          }
      

      Java

      annotateImage(request.toString())
              .addOnCompleteListener(new OnCompleteListener<JsonElement>() {
                  @Override
                  public void onComplete(@NonNull Task<JsonElement> task) {
                      if (!task.isSuccessful()) {
                          // Task failed with an exception
                          // ...
                      } else {
                          // Task completed successfully
                          // ...
                      }
                  }
              });
      

    3. Uzyskaj informacje o rozpoznanych punktach orientacyjnych

    Jeśli operacja rozpoznawania punktów orientacyjnych zakończy się pomyślnie, w wyniku zadania zostanie zwrócona odpowiedź JSON BatchAnnotateImagesResponse . Każdy obiekt w tablicy landmarkAnnotations reprezentuje punkt orientacyjny rozpoznany na obrazie. Dla każdego punktu orientacyjnego możesz uzyskać jego współrzędne graniczne na obrazie wejściowym, nazwę punktu orientacyjnego, jego szerokość i długość geograficzną, jego identyfikator elementu w Grafie wiedzy (jeśli jest dostępny) oraz poziom pewności dopasowania. Na przykład:

    Kotlin+KTX

    for (label in task.result!!.asJsonArray[0].asJsonObject["landmarkAnnotations"].asJsonArray) {
        val labelObj = label.asJsonObject
        val landmarkName = labelObj["description"]
        val entityId = labelObj["mid"]
        val score = labelObj["score"]
        val bounds = labelObj["boundingPoly"]
        // Multiple locations are possible, e.g., the location of the depicted
        // landmark and the location the picture was taken.
        for (loc in labelObj["locations"].asJsonArray) {
            val latitude = loc.asJsonObject["latLng"].asJsonObject["latitude"]
            val longitude = loc.asJsonObject["latLng"].asJsonObject["longitude"]
        }
    }
    

    Java

    for (JsonElement label : task.getResult().getAsJsonArray().get(0).getAsJsonObject().get("landmarkAnnotations").getAsJsonArray()) {
        JsonObject labelObj = label.getAsJsonObject();
        String landmarkName = labelObj.get("description").getAsString();
        String entityId = labelObj.get("mid").getAsString();
        float score = labelObj.get("score").getAsFloat();
        JsonObject bounds = labelObj.get("boundingPoly").getAsJsonObject();
        // Multiple locations are possible, e.g., the location of the depicted
        // landmark and the location the picture was taken.
        for (JsonElement loc : labelObj.get("locations").getAsJsonArray()) {
            JsonObject latLng = loc.getAsJsonObject().get("latLng").getAsJsonObject();
            double latitude = latLng.get("latitude").getAsDouble();
            double longitude = latLng.get("longitude").getAsDouble();
        }
    }