Aby wywołać Google Cloud API ze swojej aplikacji, musisz utworzyć pośredni interfejs REST API, który obsługuje autoryzację i chroni tajne wartości, takie jak klucze API. Następnie musisz napisać kod w aplikacji mobilnej, aby uwierzytelnić się i komunikować się z tą usługą pośrednią.
Jednym ze sposobów utworzenia tego interfejsu API REST jest użycie uwierzytelniania i funkcji Firebase, które zapewniają zarządzaną, bezserwerową bramę do interfejsów API Google Cloud, która obsługuje uwierzytelnianie i można ją wywołać z aplikacji mobilnej za pomocą wstępnie utworzonych pakietów SDK.
W tym przewodniku pokazano, jak używać tej techniki do wywoływania interfejsu API Cloud Vision z aplikacji. Ta metoda umożliwi wszystkim uwierzytelnionym użytkownikom dostęp do płatnych usług Cloud Vision za pośrednictwem projektu w chmurze, dlatego przed kontynuowaniem zastanów się, czy ten mechanizm uwierzytelniania jest wystarczający w Twoim przypadku użycia.
Zanim zaczniesz
Skonfiguruj swój projekt
Jeśli nie dodałeś jeszcze Firebase do swojej aplikacji, zrób to, wykonując czynności opisane w przewodniku wprowadzającym .Użyj Menedżera pakietów Swift, aby zainstalować zależności Firebase i zarządzać nimi.
- W Xcode, przy otwartym projekcie aplikacji, przejdź do File > Add Packages .
- Po wyświetleniu monitu dodaj repozytorium SDK platform Firebase Apple:
- Wybierz bibliotekę Firebase ML.
- Dodaj flagę
-ObjC
do sekcji Inne flagi linkera w ustawieniach kompilacji celu. - Po zakończeniu Xcode automatycznie rozpocznie rozwiązywanie i pobieranie zależności w tle.
https://github.com/firebase/firebase-ios-sdk.git
Następnie wykonaj konfigurację w aplikacji:
- W swojej aplikacji zaimportuj Firebase:
Szybki
import FirebaseMLModelDownloader
Cel C
@import FirebaseMLModelDownloader;
Jeszcze kilka kroków konfiguracyjnych i gotowe:
Jeśli nie włączyłeś jeszcze interfejsów API opartych na chmurze w swoim projekcie, zrób to teraz:
- Otwórz stronę interfejsów API Firebase ML w konsoli Firebase.
Jeśli nie uaktualniłeś jeszcze swojego projektu do planu cenowego Blaze, kliknij Uaktualnij , aby to zrobić. (Zostaniesz poproszony o uaktualnienie tylko wtedy, gdy Twój projekt nie jest objęty planem Blaze.)
Tylko projekty na poziomie Blaze mogą korzystać z interfejsów API opartych na chmurze.
- Jeśli interfejsy API oparte na chmurze nie są jeszcze włączone, kliknij opcję Włącz interfejsy API oparte na chmurze .
- Skonfiguruj istniejące klucze Firebase API, aby uniemożliwić dostęp do Cloud Vision API:
- Otwórz stronę Poświadczenia w konsoli Cloud.
- Dla każdego klucza API na liście otwórz widok do edycji i w sekcji Ograniczenia kluczy dodaj do listy wszystkie dostępne interfejsy API z wyjątkiem Cloud Vision API.
Wdróż funkcję wywoływalną
Następnie wdróż funkcję Cloud, której będziesz używać do łączenia swojej aplikacji z interfejsem API Cloud Vision. Repozytorium functions-samples
zawiera przykład, którego możesz użyć.
Domyślnie dostęp do Cloud Vision API za pośrednictwem tej funkcji umożliwi dostęp do Cloud Vision API tylko uwierzytelnionym użytkownikom Twojej aplikacji. Funkcję można modyfikować pod kątem różnych wymagań.
Aby wdrożyć funkcję:
- Sklonuj lub pobierz repozytorium funkcji i przejdź do katalogu
Node-1st-gen/vision-annotate-image
:git clone https://github.com/firebase/functions-samples
cd Node-1st-gen/vision-annotate-image
- Zainstaluj zależności:
cd functions
npm install
cd ..
- Jeśli nie masz interfejsu CLI Firebase, zainstaluj go .
- Zainicjuj projekt Firebase w katalogu
vision-annotate-image
. Po wyświetleniu monitu wybierz projekt z listy.firebase init
- Wdróż funkcję:
firebase deploy --only functions:annotateImage
Dodaj uwierzytelnianie Firebase do swojej aplikacji
Wdrożona powyżej funkcja wywoływalna odrzuci każde żądanie od nieuwierzytelnionych użytkowników Twojej aplikacji. Jeśli jeszcze tego nie zrobiłeś, musisz dodać Firebase Auth do swojej aplikacji.
Dodaj niezbędne zależności do swojej aplikacji
Użyj Menedżera pakietów Swift, aby zainstalować bibliotekę Cloud Functions for Firebase.
Teraz możesz rozpocząć rozpoznawanie tekstu na obrazach.
1. Przygotuj obraz wejściowy
Aby wywołać Cloud Vision, obraz musi być sformatowany jako ciąg znaków zakodowany w standardzie Base64. Aby przetworzyćUIImage
: Szybki
guard let imageData = uiImage.jpegData(compressionQuality: 1.0f) else { return } let base64encodedImage = imageData.base64EncodedString()
Cel C
NSData *imageData = UIImageJPEGRepresentation(uiImage, 1.0f); NSString *base64encodedImage = [imageData base64EncodedStringWithOptions:NSDataBase64Encoding76CharacterLineLength];
2. Wywołaj funkcję wywoływalną, aby rozpoznać tekst
Aby rozpoznać punkty orientacyjne na obrazie, wywołaj funkcję, którą można wywołać, przekazując żądanie JSON Cloud Vision .Najpierw zainicjuj instancję Cloud Functions:
Szybki
lazy var functions = Functions.functions()
Cel C
@property(strong, nonatomic) FIRFunctions *functions;
Utwórz żądanie. Interfejs API Cloud Vision obsługuje dwa typy wykrywania tekstu:
TEXT_DETECTION
iDOCUMENT_TEXT_DETECTION
. Zobacz dokumentację Cloud Vision OCR, aby poznać różnicę między tymi dwoma przypadkami użycia.Szybki
let requestData = [ "image": ["content": base64encodedImage], "features": ["type": "TEXT_DETECTION"], "imageContext": ["languageHints": ["en"]] ]
Cel C
NSDictionary *requestData = @{ @"image": @{@"content": base64encodedImage}, @"features": @{@"type": @"TEXT_DETECTION"}, @"imageContext": @{@"languageHints": @[@"en"]} };
Na koniec wywołaj funkcję:
Szybki
functions.httpsCallable("annotateImage").call(requestData) { (result, error) in if let error = error as NSError? { if error.domain == FunctionsErrorDomain { let code = FunctionsErrorCode(rawValue: error.code) let message = error.localizedDescription let details = error.userInfo[FunctionsErrorDetailsKey] } // ... } // Function completed successfully }
Cel C
[[_functions HTTPSCallableWithName:@"annotateImage"] callWithObject:requestData completion:^(FIRHTTPSCallableResult * _Nullable result, NSError * _Nullable error) { if (error) { if (error.domain == FIRFunctionsErrorDomain) { FIRFunctionsErrorCode code = error.code; NSString *message = error.localizedDescription; NSObject *details = error.userInfo[FIRFunctionsErrorDetailsKey]; } // ... } // Function completed succesfully // Get information about labeled objects }];
3. Wyodrębnij tekst z bloków rozpoznanego tekstu
Jeśli operacja rozpoznawania tekstu zakończy się pomyślnie, w wyniku zadania zostanie zwrócona odpowiedź JSON BatchAnnotateImagesResponse . Adnotacje tekstowe można znaleźć w obiekcie fullTextAnnotation
.
Rozpoznany tekst można uzyskać w postaci ciągu znaków w polu text
. Na przykład:
Szybki
guard let annotation = (result?.data as? [String: Any])?["fullTextAnnotation"] as? [String: Any] else { return }
print("%nComplete annotation:")
let text = annotation["text"] as? String ?? ""
print("%n\(text)")
Cel C
NSDictionary *annotation = result.data[@"fullTextAnnotation"];
if (!annotation) { return; }
NSLog(@"\nComplete annotation:");
NSLog(@"\n%@", annotation[@"text"]);
Można także uzyskać informacje dotyczące konkretnych regionów obrazu. Dla każdego block
, paragraph
, word
i symbol
można uzyskać tekst rozpoznawany w regionie oraz współrzędne ograniczające region. Na przykład:
Szybki
guard let pages = annotation["pages"] as? [[String: Any]] else { return }
for page in pages {
var pageText = ""
guard let blocks = page["blocks"] as? [[String: Any]] else { continue }
for block in blocks {
var blockText = ""
guard let paragraphs = block["paragraphs"] as? [[String: Any]] else { continue }
for paragraph in paragraphs {
var paragraphText = ""
guard let words = paragraph["words"] as? [[String: Any]] else { continue }
for word in words {
var wordText = ""
guard let symbols = word["symbols"] as? [[String: Any]] else { continue }
for symbol in symbols {
let text = symbol["text"] as? String ?? ""
let confidence = symbol["confidence"] as? Float ?? 0.0
wordText += text
print("Symbol text: \(text) (confidence: \(confidence)%n")
}
let confidence = word["confidence"] as? Float ?? 0.0
print("Word text: \(wordText) (confidence: \(confidence)%n%n")
let boundingBox = word["boundingBox"] as? [Float] ?? [0.0, 0.0, 0.0, 0.0]
print("Word bounding box: \(boundingBox.description)%n")
paragraphText += wordText
}
print("%nParagraph: %n\(paragraphText)%n")
let boundingBox = paragraph["boundingBox"] as? [Float] ?? [0.0, 0.0, 0.0, 0.0]
print("Paragraph bounding box: \(boundingBox)%n")
let confidence = paragraph["confidence"] as? Float ?? 0.0
print("Paragraph Confidence: \(confidence)%n")
blockText += paragraphText
}
pageText += blockText
}
Cel C
for (NSDictionary *page in annotation[@"pages"]) {
NSMutableString *pageText = [NSMutableString new];
for (NSDictionary *block in page[@"blocks"]) {
NSMutableString *blockText = [NSMutableString new];
for (NSDictionary *paragraph in block[@"paragraphs"]) {
NSMutableString *paragraphText = [NSMutableString new];
for (NSDictionary *word in paragraph[@"words"]) {
NSMutableString *wordText = [NSMutableString new];
for (NSDictionary *symbol in word[@"symbols"]) {
NSString *text = symbol[@"text"];
[wordText appendString:text];
NSLog(@"Symbol text: %@ (confidence: %@\n", text, symbol[@"confidence"]);
}
NSLog(@"Word text: %@ (confidence: %@\n\n", wordText, word[@"confidence"]);
NSLog(@"Word bounding box: %@\n", word[@"boundingBox"]);
[paragraphText appendString:wordText];
}
NSLog(@"\nParagraph: \n%@\n", paragraphText);
NSLog(@"Paragraph bounding box: %@\n", paragraph[@"boundingBox"]);
NSLog(@"Paragraph Confidence: %@\n", paragraph[@"confidence"]);
[blockText appendString:paragraphText];
}
[pageText appendString:blockText];
}
}