Bezpieczne rozpoznawanie tekstu na obrazach dzięki Cloud Vision przy użyciu uwierzytelniania i funkcji Firebase na platformach Apple

Aby wywołać interfejs Google Cloud API z aplikacji, musisz utworzyć pośredni interfejs API REST, który obsługuje autoryzację i chroni tajne wartości, takie jak klucze API. Następnie musisz napisać kod w swojej aplikacji mobilnej, aby uwierzytelnić się i komunikować z tą usługą pośredniczącą.

Jednym ze sposobów utworzenia tego interfejsu API REST jest użycie uwierzytelniania i funkcji Firebase, które zapewniają zarządzaną, bezserwerową bramę do interfejsów Google Cloud API, które obsługują uwierzytelnianie i które można wywoływać z aplikacji mobilnej za pomocą gotowych pakietów SDK.

W tym przewodniku pokazano, jak używać tej techniki do wywoływania interfejsu Cloud Vision API z aplikacji. Ta metoda umożliwi wszystkim uwierzytelnionym użytkownikom dostęp do usług rozliczanych w Cloud Vision za pośrednictwem projektu Cloud, więc przed kontynuowaniem zastanów się, czy ten mechanizm uwierzytelniania jest wystarczający w Twoim przypadku użycia.

Zanim zaczniesz

Skonfiguruj swój projekt

Jeśli nie dodałeś jeszcze Firebase do swojej aplikacji, wykonaj czynności opisane w przewodniku wprowadzającym .

Użyj Menedżera pakietów Swift, aby zainstalować zależności Firebase i zarządzać nimi.

  1. W Xcode przy otwartym projekcie aplikacji przejdź do pozycji Plik > Dodaj pakiety .
  2. Po wyświetleniu monitu dodaj repozytorium SDK platformy Firebase Apple:
  3.   https://github.com/firebase/firebase-ios-sdk
  4. Wybierz bibliotekę Firebase ML.
  5. Po zakończeniu Xcode automatycznie rozpocznie rozwiązywanie i pobieranie twoich zależności w tle.

Następnie wykonaj konfigurację w aplikacji:

  1. W swojej aplikacji zaimportuj Firebase:

    Szybki

    import FirebaseMLModelDownloader

    Cel C

    @import FirebaseMLModelDownloader;

Jeszcze kilka kroków konfiguracji i jesteśmy gotowi do pracy:

  1. Jeśli nie włączyłeś jeszcze interfejsów API opartych na chmurze dla swojego projektu, zrób to teraz:

    1. Otwórz stronę Firebase ML APIs w konsoli Firebase.
    2. Jeśli jeszcze nie uaktualniłeś swojego projektu do planu cenowego Blaze, kliknij Uaktualnij , aby to zrobić. (Zostaniesz poproszony o uaktualnienie tylko wtedy, gdy Twój projekt nie jest objęty planem Blaze).

      Tylko projekty na poziomie Blaze mogą korzystać z interfejsów API opartych na chmurze.

    3. Jeśli interfejsy API oparte na chmurze nie są jeszcze włączone, kliknij Włącz interfejsy API oparte na chmurze .
  2. Skonfiguruj swoje istniejące klucze Firebase API, aby zablokować dostęp do Cloud Vision API:
    1. Otwórz stronę Poświadczenia w konsoli Cloud.
    2. Dla każdego klucza API na liście otwórz widok do edycji i w sekcji Key Restrictions dodaj do listy wszystkie dostępne API z wyjątkiem Cloud Vision API.

Wdróż funkcję wywoływalną

Następnie wdróż funkcję Cloud Functions, której użyjesz do połączenia aplikacji z interfejsem Cloud Vision API. Repozytorium functions-samples zawiera przykład, którego możesz użyć.

Domyślnie dostęp do Cloud Vision API za pomocą tej funkcji umożliwi dostęp do Cloud Vision API tylko uwierzytelnionym użytkownikom Twojej aplikacji. Możesz modyfikować funkcję do różnych wymagań.

Aby wdrożyć funkcję:

  1. Sklonuj lub pobierz repozytorium functions-samples i przejdź do katalogu vision-annotate-image :
    git clone https://github.com/firebase/functions-samples
    cd vision-annotate-image
    
  2. Zainstaluj zależności:
    cd functions
    npm install
    cd ..
    
  3. Jeśli nie masz interfejsu wiersza polecenia Firebase, zainstaluj go .
  4. Zainicjuj projekt Firebase w katalogu vision-annotate-image . Po wyświetleniu monitu wybierz swój projekt z listy.
    firebase init
  5. Wdróż funkcję:
    firebase deploy --only functions:annotateImage

Dodaj uwierzytelnianie Firebase do swojej aplikacji

Wdrożona powyżej funkcja z możliwością wywoływania odrzuci wszelkie żądania od nieuwierzytelnionych użytkowników Twojej aplikacji. Jeśli jeszcze tego nie zrobiłeś, musisz dodać Firebase Auth do swojej aplikacji.

Dodaj niezbędne zależności do swojej aplikacji

Użyj Menedżera pakietów Swift, aby zainstalować bibliotekę Cloud Functions dla Firebase.

Teraz możesz zacząć rozpoznawać tekst na obrazach.

1. Przygotuj obraz wejściowy

Aby wywołać Cloud Vision, obraz musi być sformatowany jako ciąg znaków zakodowany w base64. Aby przetworzyć UIImage :

Szybki

guard let imageData = uiImage.jpegData(compressionQuality: 1.0f) else { return }
let base64encodedImage = imageData.base64EncodedString()

Cel C

NSData *imageData = UIImageJPEGRepresentation(uiImage, 1.0f);
NSString *base64encodedImage =
  [imageData base64EncodedStringWithOptions:NSDataBase64Encoding76CharacterLineLength];

2. Wywołaj funkcję wywoływaną, aby rozpoznać tekst

Aby rozpoznać punkty orientacyjne na obrazie, wywołaj wywoływalną funkcję przekazującą żądanie JSON Cloud Vision .

  1. Najpierw zainicjuj instancję Cloud Functions:

    Szybki

    lazy var functions = Functions.functions()
    

    Cel C

    @property(strong, nonatomic) FIRFunctions *functions;
    
  2. Utwórz zgłoszenie. Cloud Vision API obsługuje dwa typy wykrywania tekstu: TEXT_DETECTION i DOCUMENT_TEXT_DETECTION . Zobacz Cloud Vision OCR Docs , aby zobaczyć różnicę między tymi dwoma przypadkami użycia.

    Szybki

    let requestData = [
      "image": ["content": base64encodedImage],
      "features": ["type": "TEXT_DETECTION"],
      "imageContext": ["languageHints": ["en"]]
    ]
    

    Cel C

    NSDictionary *requestData = @{
      @"image": @{@"content": base64encodedImage},
      @"features": @{@"type": @"TEXT_DETECTION"},
      @"imageContext": @{@"languageHints": @[@"en"]}
    };
    
  3. Na koniec wywołaj funkcję:

    Szybki

    functions.httpsCallable("annotateImage").call(requestData) { (result, error) in
      if let error = error as NSError? {
        if error.domain == FunctionsErrorDomain {
          let code = FunctionsErrorCode(rawValue: error.code)
          let message = error.localizedDescription
          let details = error.userInfo[FunctionsErrorDetailsKey]
        }
        // ...
      }
      // Function completed succesfully
    }
    

    Cel C

    [[_functions HTTPSCallableWithName:@"annotateImage"]
                              callWithObject:requestData
                                  completion:^(FIRHTTPSCallableResult * _Nullable result, NSError * _Nullable error) {
            if (error) {
              if (error.domain == FIRFunctionsErrorDomain) {
                FIRFunctionsErrorCode code = error.code;
                NSString *message = error.localizedDescription;
                NSObject *details = error.userInfo[FIRFunctionsErrorDetailsKey];
              }
              // ...
            }
            // Function completed succesfully
            // Get information about labeled objects
    
          }];
    

3. Wyodrębnij tekst z bloków rozpoznanego tekstu

Jeśli operacja rozpoznawania tekstu się powiedzie, w wyniku zadania zostanie zwrócona odpowiedź JSON BatchAnnotateImagesResponse . Adnotacje tekstowe można znaleźć w obiekcie fullTextAnnotation .

Rozpoznany tekst można uzyskać jako ciąg w polu text . Na przykład:

Szybki

guard let annotation = (result?.data as? [String: Any])?["fullTextAnnotation"] as? [String: Any] else { return }
print("%nComplete annotation:")
let text = annotation["text"] as? String ?? ""
print("%n\(text)")

Cel C

NSDictionary *annotation = result.data[@"fullTextAnnotation"];
if (!annotation) { return; }
NSLog(@"\nComplete annotation:");
NSLog(@"\n%@", annotation[@"text"]);

Możesz także uzyskać informacje specyficzne dla regionów obrazu. Dla każdego block , paragraph , word i symbol można uzyskać tekst rozpoznawany w regionie oraz współrzędne graniczne regionu. Na przykład:

Szybki

guard let pages = annotation["pages"] as? [[String: Any]] else { return }
for page in pages {
var pageText = ""
guard let blocks = page["blocks"] as? [[String: Any]] else { continue }
for block in blocks {
    var blockText = ""
    guard let paragraphs = block["paragraphs"] as? [[String: Any]] else { continue }
    for paragraph in paragraphs {
    var paragraphText = ""
    guard let words = paragraph["words"] as? [[String: Any]] else { continue }
    for word in words {
        var wordText = ""
        guard let symbols = word["symbols"] as? [[String: Any]] else { continue }
        for symbol in symbols {
        let text = symbol["text"] as? String ?? ""
        let confidence = symbol["confidence"] as? Float ?? 0.0
        wordText += text
        print("Symbol text: \(text) (confidence: \(confidence)%n")
        }
        let confidence = word["confidence"] as? Float ?? 0.0
        print("Word text: \(wordText) (confidence: \(confidence)%n%n")
        let boundingBox = word["boundingBox"] as? [Float] ?? [0.0, 0.0, 0.0, 0.0]
        print("Word bounding box: \(boundingBox.description)%n")
        paragraphText += wordText
    }
    print("%nParagraph: %n\(paragraphText)%n")
    let boundingBox = paragraph["boundingBox"] as? [Float] ?? [0.0, 0.0, 0.0, 0.0]
    print("Paragraph bounding box: \(boundingBox)%n")
    let confidence = paragraph["confidence"] as? Float ?? 0.0
    print("Paragraph Confidence: \(confidence)%n")
    blockText += paragraphText
    }
    pageText += blockText
}

Cel C

for (NSDictionary *page in annotation[@"pages"]) {
  NSMutableString *pageText = [NSMutableString new];
  for (NSDictionary *block in page[@"blocks"]) {
    NSMutableString *blockText = [NSMutableString new];
    for (NSDictionary *paragraph in block[@"paragraphs"]) {
      NSMutableString *paragraphText = [NSMutableString new];
      for (NSDictionary *word in paragraph[@"words"]) {
        NSMutableString *wordText = [NSMutableString new];
        for (NSDictionary *symbol in word[@"symbols"]) {
          NSString *text = symbol[@"text"];
          [wordText appendString:text];
          NSLog(@"Symbol text: %@ (confidence: %@\n", text, symbol[@"confidence"]);
        }
        NSLog(@"Word text: %@ (confidence: %@\n\n", wordText, word[@"confidence"]);
        NSLog(@"Word bounding box: %@\n", word[@"boundingBox"]);
        [paragraphText appendString:wordText];
      }
      NSLog(@"\nParagraph: \n%@\n", paragraphText);
      NSLog(@"Paragraph bounding box: %@\n", paragraph[@"boundingBox"]);
      NSLog(@"Paragraph Confidence: %@\n", paragraph[@"confidence"]);
      [blockText appendString:paragraphText];
    }
    [pageText appendString:blockText];
  }
}