Bezpieczne oznaczanie obrazów za pomocą Cloud Vision przy użyciu uwierzytelniania i funkcji Firebase na platformach Apple

Aby wywołać interfejs Google Cloud API z aplikacji, musisz utworzyć pośredni interfejs API REST, który obsługuje autoryzację i chroni tajne wartości, takie jak klucze API. Następnie musisz napisać kod w swojej aplikacji mobilnej, aby uwierzytelnić się i komunikować z tą usługą pośredniczącą.

Jednym ze sposobów utworzenia tego interfejsu API REST jest użycie uwierzytelniania i funkcji Firebase, które zapewniają zarządzaną, bezserwerową bramę do interfejsów Google Cloud API, które obsługują uwierzytelnianie i które można wywoływać z aplikacji mobilnej za pomocą gotowych pakietów SDK.

W tym przewodniku pokazano, jak używać tej techniki do wywoływania interfejsu Cloud Vision API z aplikacji. Ta metoda umożliwi wszystkim uwierzytelnionym użytkownikom dostęp do usług rozliczanych w Cloud Vision za pośrednictwem projektu Cloud, więc przed kontynuowaniem zastanów się, czy ten mechanizm uwierzytelniania jest wystarczający w Twoim przypadku użycia.

Zanim zaczniesz

Skonfiguruj swój projekt

Jeśli nie masz już dodane Firebase do aplikacji, należy to zrobić, wykonując czynności opisane w podręcznej instrukcji .

Użyj Menedżera pakietów Swift, aby zainstalować zależności Firebase i zarządzać nimi.

  1. W Xcode, z projektem otwartej aplikacji, należy przejść do menu Plik> Swift Pakiety> Dodaj Package zależność.
  2. Po wyświetleniu monitu dodaj repozytorium SDK platformy Firebase Apple:
  3.   https://github.com/firebase/firebase-ios-sdk
      
  4. Wybierz bibliotekę Firebase ML.
  5. Po zakończeniu Xcode automatycznie rozpocznie rozwiązywanie i pobieranie twoich zależności w tle.

Następnie wykonaj konfigurację w aplikacji:

  1. W swojej aplikacji zaimportuj Firebase:

    Szybki

    import Firebase

    Cel C

    @import Firebase;

Jeszcze kilka kroków konfiguracji i jesteśmy gotowi do pracy:

  1. Jeśli nie włączyłeś jeszcze interfejsów API opartych na chmurze dla swojego projektu, zrób to teraz:

    1. Otwórz stronę Firebase ML API konsoli Firebase.
    2. Jeśli nie masz już uaktualniony projekt do planu cenowego Blaze, kliknij przycisk Zmień, aby to zrobić. (Zostaniesz poproszony o uaktualnienie tylko wtedy, gdy Twój projekt nie jest objęty planem Blaze).

      Tylko projekty na poziomie Blaze mogą korzystać z interfejsów API opartych na chmurze.

    3. Jeśli API w chmurze nie są już włączone, kliknij przycisk Włącz API chmurowej.
  2. Skonfiguruj swoje istniejące klucze Firebase API, aby zablokować dostęp do Cloud Vision API:
    1. Otwórz Poświadczenia stronę konsoli chmurze.
    2. Dla każdego klucza API na liście, otwórz widok edycji, aw sekcji głównych ograniczeń, dodać wszystkie dostępne API wyjątkiem API Chmura wizja listy.

Wdróż funkcję wywoływalną

Następnie wdróż funkcję Cloud Functions, której użyjesz do połączenia aplikacji z interfejsem Cloud Vision API. functions-samples repozytorium zawiera przykład można użyć.

Domyślnie dostęp do Cloud Vision API za pomocą tej funkcji umożliwi dostęp do Cloud Vision API tylko uwierzytelnionym użytkownikom Twojej aplikacji. Możesz modyfikować funkcję do różnych wymagań.

Aby wdrożyć funkcję:

  1. Klon lub pobrać funkcje-samples repo i zmiana vision-annotate-image katalogu:
    git clone https://github.com/firebase/functions-samples
    cd vision-annotate-image
    
  2. Zainstalować zależności:
    cd functions
    npm install
    cd ..
    
  3. Jeśli nie masz Firebase CLI, zainstalować go .
  4. Zainicjować projekt Firebase w vision-annotate-image katalogu. Po wyświetleniu monitu wybierz swój projekt z listy.
    firebase init
  5. Wdrożyć funkcję:
    firebase deploy --only functions:annotateImage

Dodaj uwierzytelnianie Firebase do swojej aplikacji

Wdrożona powyżej funkcja z możliwością wywoływania odrzuci wszelkie żądania od nieuwierzytelnionych użytkowników Twojej aplikacji. Jeśli nie zostało to jeszcze zrobione, trzeba będzie dodać Firebase Auth do swojej aplikacji.

Dodaj niezbędne zależności do swojej aplikacji

Użyj Menedżera pakietów Swift, aby zainstalować bibliotekę Cloud Functions dla Firebase.

Teraz jesteś gotowy do oznaczania obrazów.

1. Przygotuj obraz wejściowy

Aby wywołać Cloud Vision, obraz musi być sformatowany jako ciąg znaków zakodowany w base64. Przetworzyć UIImage :

Szybki

guard let imageData = uiImage.jpegData(compressionQuality: 1.0f) else { return }
let base64encodedImage = imageData.base64EncodedString()

Cel C

NSData *imageData = UIImageJPEGRepresentation(uiImage, 1.0f);
NSString *base64encodedImage =
  [imageData base64EncodedStringWithOptions:NSDataBase64Encoding76CharacterLineLength];

2. Wywołaj funkcję callable, aby nadać obrazowi etykietę

Do oznaczania obiektów na obrazie, powołać się na żądanie funkcji przechodzącej na żądanie JSON Chmura Vision .

  1. Najpierw zainicjuj instancję Cloud Functions:

    Szybki

    lazy var functions = Functions.functions()
    

    Cel C

    @property(strong, nonatomic) FIRFunctions *functions;
    
  2. Utwórz prośbę wraz Rodzaj zestawu do LABEL_DETECTION :

    Szybki

    let requestData = [
      "image": ["content": base64encodedImage],
      "features": ["maxResults": 5, "type": "LABEL_DETECTION"]
    ]
    

    Cel C

    NSDictionary *requestData = @{
      @"image": @{@"content": base64encodedImage},
      @"features": @{@"maxResults": @5, @"type": @"LABEL_DETECTION"}
    };
    
  3. Na koniec wywołaj funkcję:

    Szybki

    functions.httpsCallable("annotateImage").call(requestData) { (result, error) in
      if let error = error as NSError? {
        if error.domain == FunctionsErrorDomain {
          let code = FunctionsErrorCode(rawValue: error.code)
          let message = error.localizedDescription
          let details = error.userInfo[FunctionsErrorDetailsKey]
        }
        // ...
      }
      // Function completed succesfully
    }
    

    Cel C

    [[_functions HTTPSCallableWithName:@"annotateImage"]
                              callWithObject:requestData
                                  completion:^(FIRHTTPSCallableResult * _Nullable result, NSError * _Nullable error) {
            if (error) {
              if (error.domain == FIRFunctionsErrorDomain) {
                FIRFunctionsErrorCode code = error.code;
                NSString *message = error.localizedDescription;
                NSObject *details = error.userInfo[FIRFunctionsErrorDetailsKey];
              }
              // ...
            }
            // Function completed succesfully
            // Get information about labeled objects
    
          }];
    

3. Uzyskaj informacje o oznaczonych obiektach

Jeśli operacja się powiedzie etykietowanie obraz, odpowiedź JSON BatchAnnotateImagesResponse zostaną zwrócone w wyniku zadania jest. Każdy obiekt w labelAnnotations tablicy reprezentuje coś, który został oznaczony w obrazie. Na każdej etykiecie, można uzyskać opis etykiety tekstowe, jego wiedzy Graph identyfikatorze jednostki (jeśli jest dostępny), a wynik ufności meczu. Na przykład:

Szybki

if let labelArray = (result?.data as? [String: Any])?["labelAnnotations"] as? [[String:Any]] {
  for labelObj in labelArray {
    let text = labelObj["description"]
    let entityId = labelObj["mid"]
    let confidence = labelObj["score"]
  }
}

Cel C

NSArray *labelArray = result.data[@"labelAnnotations"];
for (NSDictionary *labelObj in labelArray) {
  NSString *text = labelObj[@"description"];
  NSString *entityId = labelObj[@"mid"];
  NSNumber *confidence = labelObj[@"score"];
}