Reconnaître les points de repère en toute sécurité avec Cloud Vision à l'aide de Firebase Auth et des fonctions sur iOS

Pour appeler une API Google Cloud à partir de votre application, vous devez créer une API REST intermédiaire qui gère l'autorisation et protège les valeurs secrètes telles que les clés API. Vous devez ensuite écrire du code dans votre application mobile pour vous authentifier et communiquer avec ce service intermédiaire.

Une façon de créer cette API REST consiste à utiliser Firebase Authentication and Functions, qui vous offre une passerelle gérée sans serveur vers les API Google Cloud qui gère l'authentification et peut être appelée depuis votre application mobile avec des SDK prédéfinis.

Ce guide montre comment utiliser cette technique pour appeler l'API Cloud Vision depuis votre application. Cette méthode permettra à tous les utilisateurs authentifiés d'accéder aux services facturés Cloud Vision via votre projet Cloud. Déterminez donc si ce mécanisme d'authentification est suffisant pour votre cas d'utilisation avant de continuer.

Avant que tu commences

Configurez votre projet

  1. Si vous ne l' avez pas déjà ajouté Firebase à votre application, faites - en suivant les étapes du guide de démarrage .
  2. Inclure dans votre Firebase PODFILE: Après avoir installé ou mis à jour votre projet de les pods, assurez - vous d'ouvrir votre projet Xcode en utilisant son .xcworkspace .
  3. Dans votre application, importez Firebase :

    Rapide

    import Firebase

    Objectif c

    @import Firebase;
  4. Si vous n'avez pas encore activé les API basées sur le cloud pour votre projet, faites-le maintenant :

    1. Ouvrez la page par API Firebase ML de la console Firebase.
    2. Si vous ne l' avez pas déjà mis à jour votre projet au plan de tarification Blaze, cliquez sur Mise à jour pour le faire. (Vous serez invité à mettre à niveau uniquement si votre projet ne fait pas partie du plan Blaze.)

      Seuls les projets de niveau Blaze peuvent utiliser des API basées sur le cloud.

    3. Si API cloud computing ne sont pas déjà activé, cliquez sur Activer les API cloud computing.
  5. Configurez vos clés API Firebase existantes pour interdire l'accès à l'API Cloud Vision :
    1. Ouvrez la vérification des pouvoirs page de la console Cloud.
    2. Pour chaque clé API dans la liste, ouvrez la vue d' édition, et dans la section Restrictions clés, ajouter toutes les API disponibles , sauf l'API cloud Vision à la liste.

Déployer la fonction appelable

Ensuite, déployez la fonction Cloud que vous utiliserez pour relier votre application et l'API Cloud Vision. Les functions-samples des functions-samples référentiel contient un exemple que vous pouvez utiliser.

Par défaut, l'accès à l'API Cloud Vision via cette fonction autorisera uniquement les utilisateurs authentifiés de votre application à accéder à l'API Cloud Vision. Vous pouvez modifier la fonction pour différentes exigences.

Pour déployer la fonction :

  1. Clone ou télécharger les fonctions échantillons repo et le changement à la vision-annotate-image répertoire:
    git clone https://github.com/firebase/functions-samples
    cd vision-annotate-image
    
  2. Installer les dépendances:
    cd functions
    npm install
    cd ..
    
  3. Si vous ne disposez pas de la CLI Firebase, installez - le .
  4. Initialiser un projet Firebase dans la vision-annotate-image répertoire. Lorsque vous y êtes invité, sélectionnez votre projet dans la liste.
    firebase init
  5. Déployer la fonction:
    firebase deploy --only functions:annotateImage

Ajouter Firebase Auth à votre application

La fonction appelable déployée ci-dessus rejettera toute demande d'utilisateurs non authentifiés de votre application. Si vous ne l' avez pas déjà fait, vous devrez ajouter Firebase Auth à votre application.

Ajoutez les dépendances nécessaires à votre application

  1. Ajoutez les dépendances pour la bibliothèque de fonctions Firebase à votre PODFILE:
    pod 'Firebase/Functions'
  2. Installer les dépendances:
    pod install

1. Préparez l'image d'entrée

Pour appeler Cloud Vision, l'image doit être formatée en tant que chaîne encodée en base64. Pour traiter un UIImage :

Rapide

guard let imageData = uiImage.jpegData(compressionQuality: 1.0f) else { return }
let base64encodedImage = imageData.base64EncodedString()

Objectif c

NSData *imageData = UIImageJPEGRepresentation(uiImage, 1.0f);
NSString *base64encodedImage =
  [imageData base64EncodedStringWithOptions:NSDataBase64Encoding76CharacterLineLength];

2. Invoquez la fonction appelable pour reconnaître les points de repère

Reconnaître des repères dans une image, appelez la fonction appelable passant une demande Nuage JSON Vision .

  1. Tout d'abord, initialisez une instance de Cloud Functions :

    Rapide

    lazy var functions = Functions.functions()
    

    Objectif c

    @property(strong, nonatomic) FIRFunctions *functions;
    
  2. Créer une requête avec type ensemble à LANDMARK_DETECTION :

    Rapide

    let requestData = [
      "image": ["content": base64encodedImage],
      "features": ["maxResults": 5, "type": "LANDMARK_DETECTION"]
    ]
    

    Objectif c

    NSDictionary *requestData = @{
      @"image": @{@"content": base64encodedImage},
      @"features": @{@"maxResults": @5, @"type": @"LANDMARK_DETECTION"}
    };
    
  3. Enfin, invoquez la fonction :

    Rapide

    functions.httpsCallable("annotateImage").call(requestData) { (result, error) in
      if let error = error as NSError? {
        if error.domain == FunctionsErrorDomain {
          let code = FunctionsErrorCode(rawValue: error.code)
          let message = error.localizedDescription
          let details = error.userInfo[FunctionsErrorDetailsKey]
        }
        // ...
      }
      // Function completed succesfully
    }
    

    Objectif c

    [[_functions HTTPSCallableWithName:@"annotateImage"]
                              callWithObject:requestData
                                  completion:^(FIRHTTPSCallableResult * _Nullable result, NSError * _Nullable error) {
            if (error) {
              if (error.domain == FIRFunctionsErrorDomain) {
                FIRFunctionsErrorCode code = error.code;
                NSString *message = error.localizedDescription;
                NSObject *details = error.userInfo[FIRFunctionsErrorDetailsKey];
              }
              // ...
            }
            // Function completed succesfully
            // Get information about labeled objects
    
          }];
    

3. Obtenez des informations sur les points de repère reconnus

Si l'opération de reconnaissance historique réussit, une réponse JSON de BatchAnnotateImagesResponse sera retourné dans le résultat de la tâche. Chaque objet dans le landmarkAnnotations tableau représente un point de repère qui a été reconnu dans l'image. Pour chaque point de repère, vous pouvez obtenir ses coordonnées de délimitation dans l'image d'entrée, le nom du point de repère, sa latitude et sa longitude, son ID d'entité Knowledge Graph (si disponible) et le score de confiance de la correspondance. Par exemple:

Rapide

if let labelArray = (result?.data as? [String: Any])?["landmarkAnnotations"] as? [[String:Any]] {
  for labelObj in labelArray {
    let landmarkName = labelObj["description"]
    let entityId = labelObj["mid"]
    let score = labelObj["score"]
    let bounds = labelObj["boundingPoly"]
    // Multiple locations are possible, e.g., the location of the depicted
    // landmark and the location the picture was taken.
    guard let locations = labelObj["locations"] as? [[String: [String: Any]]] else { continue }
    for location in locations {
      let latitude = location["latLng"]?["latitude"]
      let longitude = location["latLng"]?["longitude"]
    }
  }
}

Objectif c

NSArray *labelArray = result.data[@"landmarkAnnotations"];
for (NSDictionary *labelObj in labelArray) {
  NSString *landmarkName = labelObj[@"description"];
  NSString *entityId = labelObj[@"mid"];
  NSNumber *score = labelObj[@"score"];
  NSArray *bounds = labelObj[@"boundingPoly"];
  // Multiple locations are possible, e.g., the location of the depicted
  // landmark and the location the picture was taken.
  NSArray *locations = labelObj[@"locations"];
  for (NSDictionary *location in locations) {
    NSNumber *latitude = location[@"latLng"][@"latitude"];
    NSNumber *longitude = location[@"latLng"][@"longitude"];
  }
}