Aby wywołać interfejs Google Cloud API z aplikacji, musisz utworzyć pośredni interfejs API REST, który obsługuje autoryzację i chroni tajne wartości, takie jak klucze API. Następnie musisz napisać kod w swojej aplikacji mobilnej, aby uwierzytelnić się i komunikować z tą usługą pośredniczącą.
Jednym ze sposobów utworzenia tego interfejsu API REST jest użycie uwierzytelniania i funkcji Firebase, które zapewniają zarządzaną, bezserwerową bramę do interfejsów Google Cloud API, które obsługują uwierzytelnianie i które można wywoływać z aplikacji mobilnej za pomocą gotowych pakietów SDK.
W tym przewodniku pokazano, jak używać tej techniki do wywoływania interfejsu Cloud Vision API z aplikacji. Ta metoda umożliwi wszystkim uwierzytelnionym użytkownikom dostęp do usług rozliczanych w Cloud Vision za pośrednictwem projektu Cloud, więc przed kontynuowaniem zastanów się, czy ten mechanizm uwierzytelniania jest wystarczający w Twoim przypadku użycia.
Zanim zaczniesz
Skonfiguruj swój projekt
- Jeśli jeszcze tego nie zrobiłeś, dodaj Firebase do swojego projektu na Androida .
Jeśli nie włączyłeś jeszcze interfejsów API opartych na chmurze dla swojego projektu, zrób to teraz:
- Otwórz stronę Firebase ML APIs w konsoli Firebase.
Jeśli jeszcze nie uaktualniłeś swojego projektu do planu cenowego Blaze, kliknij Uaktualnij , aby to zrobić. (Zostaniesz poproszony o uaktualnienie tylko wtedy, gdy Twój projekt nie jest objęty planem Blaze).
Tylko projekty na poziomie Blaze mogą korzystać z interfejsów API opartych na chmurze.
- Jeśli interfejsy API oparte na chmurze nie są jeszcze włączone, kliknij Włącz interfejsy API oparte na chmurze .
- Skonfiguruj swoje istniejące klucze Firebase API, aby zablokować dostęp do Cloud Vision API:
- Otwórz stronę Poświadczenia w konsoli Cloud.
- Dla każdego klucza API na liście otwórz widok do edycji i w sekcji Key Restrictions dodaj do listy wszystkie dostępne API z wyjątkiem Cloud Vision API.
Wdróż funkcję wywoływalną
Następnie wdróż funkcję Cloud Functions, której użyjesz do połączenia aplikacji z interfejsem Cloud Vision API. Repozytorium functions-samples
zawiera przykład, którego możesz użyć.
Domyślnie dostęp do Cloud Vision API za pomocą tej funkcji umożliwi dostęp do Cloud Vision API tylko uwierzytelnionym użytkownikom Twojej aplikacji. Możesz modyfikować funkcję do różnych wymagań.
Aby wdrożyć funkcję:
- Sklonuj lub pobierz repozytorium functions-samples i przejdź do katalogu
vision-annotate-image
:git clone https://github.com/firebase/functions-samples
cd vision-annotate-image
- Zainstaluj zależności:
cd functions
npm install
cd ..
- Jeśli nie masz interfejsu wiersza polecenia Firebase, zainstaluj go .
- Zainicjuj projekt Firebase w katalogu
vision-annotate-image
. Po wyświetleniu monitu wybierz swój projekt z listy.firebase init
- Wdróż funkcję:
firebase deploy --only functions:annotateImage
Dodaj uwierzytelnianie Firebase do swojej aplikacji
Wdrożona powyżej funkcja z możliwością wywoływania odrzuci wszelkie żądania od nieuwierzytelnionych użytkowników Twojej aplikacji. Jeśli jeszcze tego nie zrobiłeś, musisz dodać Firebase Auth do swojej aplikacji.
Dodaj niezbędne zależności do swojej aplikacji
implementation 'com.google.firebase:firebase-functions:20.1.0' implementation 'com.google.code.gson:gson:2.8.6'
Teraz jesteś gotowy do oznaczania obrazów.
1. Przygotuj obraz wejściowy
Aby wywołać Cloud Vision, obraz musi być sformatowany jako ciąg znaków zakodowany w base64. Aby przetworzyć obraz z zapisanego identyfikatora URI pliku:- Pobierz obraz jako obiekt
Bitmap
:Java
Bitmap bitmap = MediaStore.Images.Media.getBitmap(getContentResolver(), uri);
Kotlin+KTX
var bitmap: Bitmap = MediaStore.Images.Media.getBitmap(contentResolver, uri)
- Opcjonalnie zmniejsz obraz, aby zaoszczędzić na przepustowości. Zobacz zalecane rozmiary obrazów Cloud Vision.
Java
private Bitmap scaleBitmapDown(Bitmap bitmap, int maxDimension) { int originalWidth = bitmap.getWidth(); int originalHeight = bitmap.getHeight(); int resizedWidth = maxDimension; int resizedHeight = maxDimension; if (originalHeight > originalWidth) { resizedHeight = maxDimension; resizedWidth = (int) (resizedHeight * (float) originalWidth / (float) originalHeight); } else if (originalWidth > originalHeight) { resizedWidth = maxDimension; resizedHeight = (int) (resizedWidth * (float) originalHeight / (float) originalWidth); } else if (originalHeight == originalWidth) { resizedHeight = maxDimension; resizedWidth = maxDimension; } return Bitmap.createScaledBitmap(bitmap, resizedWidth, resizedHeight, false); }
Kotlin+KTX
private fun scaleBitmapDown(bitmap: Bitmap, maxDimension: Int): Bitmap { val originalWidth = bitmap.width val originalHeight = bitmap.height var resizedWidth = maxDimension var resizedHeight = maxDimension if (originalHeight > originalWidth) { resizedHeight = maxDimension resizedWidth = (resizedHeight * originalWidth.toFloat() / originalHeight.toFloat()).toInt() } else if (originalWidth > originalHeight) { resizedWidth = maxDimension resizedHeight = (resizedWidth * originalHeight.toFloat() / originalWidth.toFloat()).toInt() } else if (originalHeight == originalWidth) { resizedHeight = maxDimension resizedWidth = maxDimension } return Bitmap.createScaledBitmap(bitmap, resizedWidth, resizedHeight, false) }
Java
// Scale down bitmap size bitmap = scaleBitmapDown(bitmap, 640);
Kotlin+KTX
// Scale down bitmap size bitmap = scaleBitmapDown(bitmap, 640)
- Przekonwertuj obiekt bitmapowy na ciąg zakodowany w base64:
Java
// Convert bitmap to base64 encoded string ByteArrayOutputStream byteArrayOutputStream = new ByteArrayOutputStream(); bitmap.compress(Bitmap.CompressFormat.JPEG, 100, byteArrayOutputStream); byte[] imageBytes = byteArrayOutputStream.toByteArray(); String base64encoded = Base64.encodeToString(imageBytes, Base64.NO_WRAP);
Kotlin+KTX
// Convert bitmap to base64 encoded string val byteArrayOutputStream = ByteArrayOutputStream() bitmap.compress(Bitmap.CompressFormat.JPEG, 100, byteArrayOutputStream) val imageBytes: ByteArray = byteArrayOutputStream.toByteArray() val base64encoded = Base64.encodeToString(imageBytes, Base64.NO_WRAP)
Obraz reprezentowany przez obiekt
Bitmap
musi być ustawiony pionowo, bez konieczności dodatkowego obracania.2. Wywołaj funkcję callable, aby oznaczyć obraz
Aby oznaczyć obiekty na obrazie etykietami, wywołaj wywoływalną funkcję przekazującą żądanie JSON Cloud Vision .Najpierw zainicjuj instancję Cloud Functions:
Java
private FirebaseFunctions mFunctions; // ... mFunctions = FirebaseFunctions.getInstance();
Kotlin+KTX
private lateinit var functions: FirebaseFunctions // ... functions = Firebase.functions
Zdefiniuj metodę wywoływania funkcji:
Java
private Task<JsonElement> annotateImage(String requestJson) { return mFunctions .getHttpsCallable("annotateImage") .call(requestJson) .continueWith(new Continuation<HttpsCallableResult, JsonElement>() { @Override public JsonElement then(@NonNull Task<HttpsCallableResult> task) { // This continuation runs on either success or failure, but if the task // has failed then getResult() will throw an Exception which will be // propagated down. return JsonParser.parseString(new Gson().toJson(task.getResult().getData())); } }); }
Kotlin+KTX
private fun annotateImage(requestJson: String): Task<JsonElement> { return functions .getHttpsCallable("annotateImage") .call(requestJson) .continueWith { task -> // This continuation runs on either success or failure, but if the task // has failed then result will throw an Exception which will be // propagated down. val result = task.result?.data JsonParser.parseString(Gson().toJson(result)) } }
Utwórz żądanie JSON z typem ustawionym na
LABEL_DETECTION
:Java
// Create json request to cloud vision JsonObject request = new JsonObject(); // Add image to request JsonObject image = new JsonObject(); image.add("content", new JsonPrimitive(base64encoded)); request.add("image", image); //Add features to the request JsonObject feature = new JsonObject(); feature.add("maxResults", new JsonPrimitive(5)); feature.add("type", new JsonPrimitive("LABEL_DETECTION")); JsonArray features = new JsonArray(); features.add(feature); request.add("features", features);
Kotlin+KTX
// Create json request to cloud vision val request = JsonObject() // Add image to request val image = JsonObject() image.add("content", JsonPrimitive(base64encoded)) request.add("image", image) //Add features to the request val feature = JsonObject() feature.add("maxResults", JsonPrimitive(5)) feature.add("type", JsonPrimitive("LABEL_DETECTION")) val features = JsonArray() features.add(feature) request.add("features", features)
Na koniec wywołaj funkcję:
Java
annotateImage(request.toString()) .addOnCompleteListener(new OnCompleteListener<JsonElement>() { @Override public void onComplete(@NonNull Task<JsonElement> task) { if (!task.isSuccessful()) { // Task failed with an exception // ... } else { // Task completed successfully // ... } } });
Kotlin+KTX
annotateImage(request.toString()) .addOnCompleteListener { task -> if (!task.isSuccessful) { // Task failed with an exception // ... } else { // Task completed successfully // ... } }
3. Uzyskaj informacje o oznaczonych obiektach
Jeśli operacja oznaczania obrazu zakończy się pomyślnie, odpowiedź JSON BatchAnnotateImagesResponse zostanie zwrócona w wyniku zadania. Każdy obiekt w tablicylabelAnnotations
reprezentuje coś, co zostało oznaczone na obrazie. Dla każdej etykiety możesz uzyskać opis tekstowy etykiety, jej identyfikator jednostki Grafu wiedzy (jeśli jest dostępny) oraz poziom ufności dopasowania. Na przykład: Java
for (JsonElement label : task.getResult().getAsJsonArray().get(0).getAsJsonObject().get("labelAnnotations").getAsJsonArray()) {
JsonObject labelObj = label.getAsJsonObject();
String text = labelObj.get("description").getAsString();
String entityId = labelObj.get("mid").getAsString();
float score = labelObj.get("score").getAsFloat();
}
Kotlin+KTX
for (label in task.result!!.asJsonArray[0].asJsonObject["labelAnnotations"].asJsonArray) {
val labelObj = label.asJsonObject
val text = labelObj["description"]
val entityId = labelObj["mid"]
val confidence = labelObj["score"]
}