Aby wywoływać interfejs Google Cloud API z aplikacji, musisz utworzyć poziom pośredni Interfejs API typu REST, który obsługuje autoryzację i chroni wartości obiektów tajnych, takie jak klucze interfejsu API. Następnie wykonaj te czynności: napisz kod w aplikacji mobilnej, aby uwierzytelnić się w tej usłudze pośredniej i komunikować się z nią.
Jednym ze sposobów utworzenia tego interfejsu API typu REST jest skorzystanie z Uwierzytelniania i funkcji Firebase – udostępnia on zarządzaną, bezserwerową bramę do Interfejsy Google Cloud APIs, które obsługują uwierzytelnianie i można je wywoływać z aplikacji mobilnej za pomocą gotowych pakietów SDK.
Z tego przewodnika dowiesz się, jak za pomocą tej metody wywoływać interfejs Cloud Vision API z aplikacji. Ta metoda pozwoli wszystkim uwierzytelnionym użytkownikom na dostęp do płatnych usług Cloud Vision za pośrednictwem Twojego projektu Cloud, więc Zanim przejdziesz dalej, zastanów się, czy ten mechanizm uwierzytelniania jest wystarczający w Twoim przypadku użycia.
Zanim zaczniesz
Konfigurowanie projektu
- Jeśli jeszcze nie masz tego za sobą, dodaj Firebase do swojego projektu na Androida.
-
Jeśli w swoim projekcie nie włączono jeszcze interfejsów API działających w chmurze, zrób to. teraz:
- Otwórz Firebase ML Strona interfejsów API w konsoli Firebase.
-
Jeśli Twój projekt nie został jeszcze przeniesiony na abonament Blaze, kliknij Aby to zrobić, przejdź na wyższą wersję. (Prośba o uaktualnienie wyświetli się tylko wtedy, gdy projekt nie jest objęty abonamentem Blaze).
Tylko projekty na poziomie Blaze mogą korzystać z interfejsów API działających w chmurze.
- Jeśli interfejsy API działające w chmurze nie są włączone, kliknij Włącz działające w chmurze interfejsów API.
- Skonfiguruj istniejące klucze interfejsu API Firebase, aby zablokować dostęp do chmury
Interfejs Vision API:
- Otwórz stronę Dane logowania w konsoli Cloud.
- Dla każdego klucza interfejsu API na liście otwórz widok edycji i w polu Klucz Sekcja Ograniczenia; dodaj wszystkie dostępne interfejsy API oprócz Cloud Vision API.
Wdrażanie funkcji możliwej do wywołania
Następnie wdróż funkcję w Cloud Functions, której będziesz używać do mostu aplikacji i Cloud Functions
Vision API. Repozytorium functions-samples
zawiera przykład
których możesz użyć.
Domyślnie dostęp do interfejsu Cloud Vision API za pomocą tej funkcji pozwoli dostęp do interfejsu Cloud Vision API mają tylko uwierzytelnieni użytkownicy Twojej aplikacji. Dostępne opcje dostosować funkcję do różnych wymagań.
Aby wdrożyć funkcję:
- Skopiuj lub pobierz repozytoriumfunctions-samples.
i przejdź do katalogu
Node-1st-gen/vision-annotate-image
:git clone https://github.com/firebase/functions-samples
cd Node-1st-gen/vision-annotate-image
- Zainstaluj zależności:
cd functions
npm install
cd ..
- Jeśli nie masz interfejsu wiersza poleceń Firebase, zainstaluj go.
- Zainicjowanie projektu Firebase w
vision-annotate-image
katalogu. Gdy pojawi się prośba, wybierz projekt z listy.firebase init
- Wdróż funkcję:
firebase deploy --only functions:annotateImage
Dodaj Uwierzytelnianie Firebase do swojej aplikacji
Wdrożona powyżej funkcja wywoływana odrzuca wszystkie żądania pochodzące z nieuwierzytelnionych do użytkowników Twojej aplikacji. Dodaj Firebase, jeśli jeszcze nie zostało to zrobione Uwierzytelnianie w aplikacji.
Dodaj niezbędne zależności do aplikacji
<project>/<app-module>/build.gradle.kts
lub
<project>/<app-module>/build.gradle
):
implementation("com.google.firebase:firebase-functions:21.1.0") implementation("com.google.code.gson:gson:2.8.6")
1. Przygotowywanie obrazu wejściowego
Aby można było wywołać Cloud Vision, obraz musi być sformatowany jako ciąg zakodowany w formacie base64. Aby przetworzyć obraz z identyfikatora URI zapisanego pliku:- Pobierz obraz jako obiekt
Bitmap
:Kotlin+KTX
var bitmap: Bitmap = MediaStore.Images.Media.getBitmap(contentResolver, uri)
Java
Bitmap bitmap = MediaStore.Images.Media.getBitmap(getContentResolver(), uri);
- Opcjonalnie skaluj obraz w dół, aby zmniejszyć obciążenie przepustowości sieci. Zobacz
Zalecane rozmiary obrazów w Cloud Vision.
Kotlin+KTX
private fun scaleBitmapDown(bitmap: Bitmap, maxDimension: Int): Bitmap { val originalWidth = bitmap.width val originalHeight = bitmap.height var resizedWidth = maxDimension var resizedHeight = maxDimension if (originalHeight > originalWidth) { resizedHeight = maxDimension resizedWidth = (resizedHeight * originalWidth.toFloat() / originalHeight.toFloat()).toInt() } else if (originalWidth > originalHeight) { resizedWidth = maxDimension resizedHeight = (resizedWidth * originalHeight.toFloat() / originalWidth.toFloat()).toInt() } else if (originalHeight == originalWidth) { resizedHeight = maxDimension resizedWidth = maxDimension } return Bitmap.createScaledBitmap(bitmap, resizedWidth, resizedHeight, false) }
Java
private Bitmap scaleBitmapDown(Bitmap bitmap, int maxDimension) { int originalWidth = bitmap.getWidth(); int originalHeight = bitmap.getHeight(); int resizedWidth = maxDimension; int resizedHeight = maxDimension; if (originalHeight > originalWidth) { resizedHeight = maxDimension; resizedWidth = (int) (resizedHeight * (float) originalWidth / (float) originalHeight); } else if (originalWidth > originalHeight) { resizedWidth = maxDimension; resizedHeight = (int) (resizedWidth * (float) originalHeight / (float) originalWidth); } else if (originalHeight == originalWidth) { resizedHeight = maxDimension; resizedWidth = maxDimension; } return Bitmap.createScaledBitmap(bitmap, resizedWidth, resizedHeight, false); }
Kotlin+KTX
// Scale down bitmap size bitmap = scaleBitmapDown(bitmap, 640)
Java
// Scale down bitmap size bitmap = scaleBitmapDown(bitmap, 640);
- Przekształć obiekt bitmapy na ciąg zakodowany w standardzie base64:
Kotlin+KTX
// Convert bitmap to base64 encoded string val byteArrayOutputStream = ByteArrayOutputStream() bitmap.compress(Bitmap.CompressFormat.JPEG, 100, byteArrayOutputStream) val imageBytes: ByteArray = byteArrayOutputStream.toByteArray() val base64encoded = Base64.encodeToString(imageBytes, Base64.NO_WRAP)
Java
// Convert bitmap to base64 encoded string ByteArrayOutputStream byteArrayOutputStream = new ByteArrayOutputStream(); bitmap.compress(Bitmap.CompressFormat.JPEG, 100, byteArrayOutputStream); byte[] imageBytes = byteArrayOutputStream.toByteArray(); String base64encoded = Base64.encodeToString(imageBytes, Base64.NO_WRAP);
Obraz reprezentowany przez obiekt
Bitmap
musi
być pionowo bez konieczności dodatkowego obracania.
2. Wywołaj funkcję wywoływania do rozpoznawania punktów orientacyjnych
Aby rozpoznać punkty orientacyjne na zdjęciu, wywołaj funkcję wywoływaną, przesyłając polecenie Żądanie JSON Cloud Vision.Najpierw zainicjuj instancję Cloud Functions:
Kotlin+KTX
private lateinit var functions: FirebaseFunctions // ... functions = Firebase.functions
Java
private FirebaseFunctions mFunctions; // ... mFunctions = FirebaseFunctions.getInstance();
Zdefiniuj metodę wywoływania funkcji:
Kotlin+KTX
private fun annotateImage(requestJson: String): Task<JsonElement> { return functions .getHttpsCallable("annotateImage") .call(requestJson) .continueWith { task -> // This continuation runs on either success or failure, but if the task // has failed then result will throw an Exception which will be // propagated down. val result = task.result?.data JsonParser.parseString(Gson().toJson(result)) } }
Java
private Task<JsonElement> annotateImage(String requestJson) { return mFunctions .getHttpsCallable("annotateImage") .call(requestJson) .continueWith(new Continuation<HttpsCallableResult, JsonElement>() { @Override public JsonElement then(@NonNull Task<HttpsCallableResult> task) { // This continuation runs on either success or failure, but if the task // has failed then getResult() will throw an Exception which will be // propagated down. return JsonParser.parseString(new Gson().toJson(task.getResult().getData())); } }); }
Utwórz żądanie JSON z typem
LANDMARK_DETECTION
:Kotlin+KTX
// Create json request to cloud vision val request = JsonObject() // Add image to request val image = JsonObject() image.add("content", JsonPrimitive(base64encoded)) request.add("image", image) // Add features to the request val feature = JsonObject() feature.add("maxResults", JsonPrimitive(5)) feature.add("type", JsonPrimitive("LANDMARK_DETECTION")) val features = JsonArray() features.add(feature) request.add("features", features)
Java
// Create json request to cloud vision JsonObject request = new JsonObject(); // Add image to request JsonObject image = new JsonObject(); image.add("content", new JsonPrimitive(base64encoded)); request.add("image", image); //Add features to the request JsonObject feature = new JsonObject(); feature.add("maxResults", new JsonPrimitive(5)); feature.add("type", new JsonPrimitive("LANDMARK_DETECTION")); JsonArray features = new JsonArray(); features.add(feature); request.add("features", features);
Na koniec wywołaj funkcję:
Kotlin+KTX
annotateImage(request.toString()) .addOnCompleteListener { task -> if (!task.isSuccessful) { // Task failed with an exception // ... } else { // Task completed successfully // ... } }
Java
annotateImage(request.toString()) .addOnCompleteListener(new OnCompleteListener<JsonElement>() { @Override public void onComplete(@NonNull Task<JsonElement> task) { if (!task.isSuccessful()) { // Task failed with an exception // ... } else { // Task completed successfully // ... } } });
3. Uzyskiwanie informacji o znanych punktach orientacyjnych
Jeśli operacja rozpoznawania punktu orientacyjnego się powiedzie, odpowiedź JSON o wartości BatchAnnotateImagesResponse zostaną zwrócone w wyniku zadania. Każdy obiekt wlandmarkAnnotations
reprezentuje punkt orientacyjny rozpoznany na obrazie. Dla każdego punktu orientacyjnego
można znaleźć współrzędne ograniczające na obrazie wejściowym, nazwę punktu orientacyjnego
szerokości i długości geograficznej, identyfikator jednostki w Grafie wiedzy (jeśli jest dostępny);
wskaźnik ufności dopasowania. Przykład:
Kotlin+KTX
for (label in task.result!!.asJsonArray[0].asJsonObject["landmarkAnnotations"].asJsonArray) {
val labelObj = label.asJsonObject
val landmarkName = labelObj["description"]
val entityId = labelObj["mid"]
val score = labelObj["score"]
val bounds = labelObj["boundingPoly"]
// Multiple locations are possible, e.g., the location of the depicted
// landmark and the location the picture was taken.
for (loc in labelObj["locations"].asJsonArray) {
val latitude = loc.asJsonObject["latLng"].asJsonObject["latitude"]
val longitude = loc.asJsonObject["latLng"].asJsonObject["longitude"]
}
}
Java
for (JsonElement label : task.getResult().getAsJsonArray().get(0).getAsJsonObject().get("landmarkAnnotations").getAsJsonArray()) {
JsonObject labelObj = label.getAsJsonObject();
String landmarkName = labelObj.get("description").getAsString();
String entityId = labelObj.get("mid").getAsString();
float score = labelObj.get("score").getAsFloat();
JsonObject bounds = labelObj.get("boundingPoly").getAsJsonObject();
// Multiple locations are possible, e.g., the location of the depicted
// landmark and the location the picture was taken.
for (JsonElement loc : labelObj.get("locations").getAsJsonArray()) {
JsonObject latLng = loc.getAsJsonObject().get("latLng").getAsJsonObject();
double latitude = latLng.get("latitude").getAsDouble();
double longitude = latLng.get("longitude").getAsDouble();
}
}