Catch up on everything announced at Firebase Summit, and learn how Firebase can help you accelerate app development and run your app with confidence. Learn More

Bezpieczne oznaczanie obrazów za pomocą Cloud Vision przy użyciu uwierzytelniania i funkcji Firebase na platformach Apple

Zadbaj o dobrą organizację dzięki kolekcji Zapisuj i kategoryzuj treści zgodnie ze swoimi preferencjami.

Aby wywołać Google Cloud API ze swojej aplikacji, musisz utworzyć pośredni interfejs API REST, który obsługuje autoryzację i chroni tajne wartości, takie jak klucze API. Następnie musisz napisać kod w aplikacji mobilnej, aby uwierzytelnić się i komunikować z tą usługą pośrednią.

Jednym ze sposobów utworzenia tego interfejsu API REST jest użycie uwierzytelniania i funkcji Firebase, które zapewniają zarządzaną, bezserwerową bramę do interfejsów API Google Cloud, która obsługuje uwierzytelnianie i może być wywoływana z aplikacji mobilnej za pomocą gotowych zestawów SDK.

W tym przewodniku pokazano, jak używać tej techniki do wywoływania interfejsu Cloud Vision API z aplikacji. Ta metoda umożliwi wszystkim uwierzytelnionym użytkownikom dostęp do płatnych usług Cloud Vision za pośrednictwem Twojego projektu w chmurze, więc zanim przejdziesz dalej, zastanów się, czy ten mechanizm uwierzytelniania jest wystarczający w Twoim przypadku użycia.

Zanim zaczniesz

Skonfiguruj swój projekt

Jeśli jeszcze nie dodałeś Firebase do swojej aplikacji, zrób to, wykonując czynności opisane w przewodniku wprowadzającym .

Użyj Menedżera pakietów Swift, aby zainstalować i zarządzać zależnościami Firebase.

  1. W Xcode przy otwartym projekcie aplikacji przejdź do File > Add Packages .
  2. Po wyświetleniu monitu dodaj repozytorium Firebase Apple platforms SDK:
  3.   https://github.com/firebase/firebase-ios-sdk
  4. Wybierz bibliotekę Firebase ML.
  5. Po zakończeniu Xcode automatycznie rozpocznie rozwiązywanie i pobieranie zależności w tle.

Następnie wykonaj konfigurację w aplikacji:

  1. W swojej aplikacji zaimportuj Firebase:

    Szybki

    import FirebaseMLModelDownloader

    Cel C

    @import FirebaseMLModelDownloader;

Jeszcze kilka kroków konfiguracyjnych i jesteśmy gotowi do pracy:

  1. Jeśli jeszcze nie włączyłeś interfejsów API opartych na chmurze dla swojego projektu, zrób to teraz:

    1. Otwórz stronę Firebase ML APIs w konsoli Firebase.
    2. Jeśli jeszcze nie zaktualizowałeś swojego projektu do planu cenowego Blaze, kliknij Uaktualnij , aby to zrobić. (Zostaniesz poproszony o uaktualnienie tylko wtedy, gdy Twój projekt nie jest objęty planem Blaze).

      Tylko projekty na poziomie Blaze mogą korzystać z interfejsów API opartych na chmurze.

    3. Jeśli interfejsy API oparte na chmurze nie są jeszcze włączone, kliknij opcję Włącz interfejsy API oparte na chmurze .
  2. Skonfiguruj istniejące klucze Firebase API, aby uniemożliwić dostęp do Cloud Vision API:
    1. Otwórz stronę Poświadczenia konsoli Cloud.
    2. Dla każdego klucza API na liście otwórz widok edycji i w sekcji Ograniczenia klucza dodaj do listy wszystkie dostępne interfejsy API oprócz Cloud Vision API.

Wdróż funkcję wywoływalną

Następnie wdróż funkcję chmury, której będziesz używać do łączenia aplikacji z interfejsem Cloud Vision API. Repozytorium przykładów functions-samples zawiera przykład, którego możesz użyć.

Domyślnie dostęp do Cloud Vision API za pomocą tej funkcji umożliwi tylko uwierzytelnionym użytkownikom Twojej aplikacji dostęp do Cloud Vision API. Możesz zmodyfikować funkcję dla różnych wymagań.

Aby wdrożyć funkcję:

  1. Sklonuj lub pobierz repozytorium funkcji-samples i przejdź do katalogu vision-annotate-image :
    git clone https://github.com/firebase/functions-samples
    cd vision-annotate-image
    
  2. Zainstaluj zależności:
    cd functions
    npm install
    cd ..
    
  3. Jeśli nie masz interfejsu Firebase CLI, zainstaluj go .
  4. Zainicjuj projekt Firebase w katalogu vision-annotate-image . Po wyświetleniu monitu wybierz swój projekt z listy.
    firebase init
  5. Wdróż funkcję:
    firebase deploy --only functions:annotateImage

Dodaj uwierzytelnianie Firebase do swojej aplikacji

Wdrożona powyżej funkcja wywoływalna odrzuci wszelkie żądania od nieuwierzytelnionych użytkowników Twojej aplikacji. Jeśli jeszcze tego nie zrobiłeś, musisz dodać Firebase Auth do swojej aplikacji.

Dodaj niezbędne zależności do swojej aplikacji

Użyj Menedżera pakietów Swift, aby zainstalować bibliotekę Cloud Functions for Firebase.

Teraz możesz przystąpić do etykietowania obrazów.

1. Przygotuj obraz wejściowy

Aby wywołać Cloud Vision, obraz musi być sformatowany jako ciąg zakodowany w base64. Aby przetworzyć UIImage :

Szybki

guard let imageData = uiImage.jpegData(compressionQuality: 1.0f) else { return }
let base64encodedImage = imageData.base64EncodedString()

Cel C

NSData *imageData = UIImageJPEGRepresentation(uiImage, 1.0f);
NSString *base64encodedImage =
  [imageData base64EncodedStringWithOptions:NSDataBase64Encoding76CharacterLineLength];

2. Wywołaj funkcję wywoływalną, aby oznaczyć obraz

Aby oznaczyć obiekty na obrazie, wywołaj funkcję wywoływalną przekazującą żądanie JSON Cloud Vision .

  1. Najpierw zainicjuj instancję Cloud Functions:

    Szybki

    lazy var functions = Functions.functions()
    

    Cel C

    @property(strong, nonatomic) FIRFunctions *functions;
    
  2. Utwórz żądanie z typem ustawionym na LABEL_DETECTION :

    Szybki

    let requestData = [
      "image": ["content": base64encodedImage],
      "features": ["maxResults": 5, "type": "LABEL_DETECTION"]
    ]
    

    Cel C

    NSDictionary *requestData = @{
      @"image": @{@"content": base64encodedImage},
      @"features": @{@"maxResults": @5, @"type": @"LABEL_DETECTION"}
    };
    
  3. Na koniec wywołaj funkcję:

    Szybki

    functions.httpsCallable("annotateImage").call(requestData) { (result, error) in
      if let error = error as NSError? {
        if error.domain == FunctionsErrorDomain {
          let code = FunctionsErrorCode(rawValue: error.code)
          let message = error.localizedDescription
          let details = error.userInfo[FunctionsErrorDetailsKey]
        }
        // ...
      }
      // Function completed succesfully
    }
    

    Cel C

    [[_functions HTTPSCallableWithName:@"annotateImage"]
                              callWithObject:requestData
                                  completion:^(FIRHTTPSCallableResult * _Nullable result, NSError * _Nullable error) {
            if (error) {
              if (error.domain == FIRFunctionsErrorDomain) {
                FIRFunctionsErrorCode code = error.code;
                NSString *message = error.localizedDescription;
                NSObject *details = error.userInfo[FIRFunctionsErrorDetailsKey];
              }
              // ...
            }
            // Function completed succesfully
            // Get information about labeled objects
    
          }];
    

3. Uzyskaj informacje o obiektach oznaczonych etykietami

Jeśli operacja etykietowania obrazu powiedzie się, w wyniku zadania zostanie zwrócona odpowiedź JSON BatchAnnotateImagesResponse . Każdy obiekt w tablicy labelAnnotations reprezentuje coś, co zostało oznaczone na obrazie. Dla każdej etykiety można uzyskać opis tekstowy etykiety, jej identyfikator elementu Grafu wiedzy (jeśli jest dostępny) oraz wynik pewności dopasowania. Na przykład:

Szybki

if let labelArray = (result?.data as? [String: Any])?["labelAnnotations"] as? [[String:Any]] {
  for labelObj in labelArray {
    let text = labelObj["description"]
    let entityId = labelObj["mid"]
    let confidence = labelObj["score"]
  }
}

Cel C

NSArray *labelArray = result.data[@"labelAnnotations"];
for (NSDictionary *labelObj in labelArray) {
  NSString *text = labelObj[@"description"];
  NSString *entityId = labelObj[@"mid"];
  NSNumber *confidence = labelObj[@"score"];
}