Join us for Firebase Summit on November 10, 2021. Tune in to learn how Firebase can help you accelerate app development, release with confidence, and scale with ease. Register

Rozpoznawaj punkty orientacyjne za pomocą Firebase ML na iOS

Za pomocą Firebase ML możesz rozpoznawać na obrazie dobrze znane punkty orientacyjne.

Zanim zaczniesz

  1. Jeśli nie masz już dodane Firebase do aplikacji, należy to zrobić, wykonując czynności opisane w podręcznej instrukcji .
  2. Obejmują Firebase w Podfile:
    pod 'Firebase/MLVision'
    
    Po zainstalowaniu lub aktualizacji Pods Twojego projektu, należy otworzyć swój projekt Xcode używając jego .xcworkspace .
  3. W swojej aplikacji zaimportuj Firebase:

    Szybki

    import Firebase

    Cel C

    @import Firebase;
  4. Jeśli nie masz jeszcze włączonych interfejsów API opartych na chmurze w swoim projekcie, zrób to teraz:

    1. Otwórz stronę Firebase ML API konsoli Firebase.
    2. Jeśli nie masz już uaktualniony projekt do planu cenowego Blaze, kliknij przycisk Zmień, aby to zrobić. (Zostaniesz poproszony o uaktualnienie tylko wtedy, gdy Twój projekt nie jest objęty planem Blaze).

      Tylko projekty na poziomie Blaze mogą korzystać z interfejsów API opartych na chmurze.

    3. Jeśli API w chmurze nie są już włączone, kliknij przycisk Włącz API chmurowej.

Skonfiguruj detektor punktów orientacyjnych

Domyślnie detektor Cloud korzysta ze stabilnej wersji modelu i zwraca do 10 wyników. Jeśli chcesz zmienić jeden z tych ustawień, należy określić je VisionCloudDetectorOptions obiektów, jak w poniższym przykładzie:

Szybki

let options = VisionCloudDetectorOptions()
options.modelType = .latest
options.maxResults = 20

Cel C

  FIRVisionCloudDetectorOptions *options =
      [[FIRVisionCloudDetectorOptions alloc] init];
  options.modelType = FIRVisionCloudModelTypeLatest;
  options.maxResults = 20;
  

W następnym kroku, mijają VisionCloudDetectorOptions obiektu podczas tworzenia detektora obiektu Cloud.

Uruchom wykrywacz punktów orientacyjnych

Aby rozpoznać punkty orientacyjne w obrazie, należy przekazać obraz jako UIImage lub CMSampleBufferRef do VisionCloudLandmarkDetector „s detect(in:) metodą:

  1. Uzyskaj wystąpienie VisionCloudLandmarkDetector :

    Szybki

    lazy var vision = Vision.vision()
    
    let cloudDetector = vision.cloudLandmarkDetector(options: options)
    // Or, to use the default settings:
    // let cloudDetector = vision.cloudLandmarkDetector()
    

    Cel C

    FIRVision *vision = [FIRVision vision];
    FIRVisionCloudLandmarkDetector *landmarkDetector = [vision cloudLandmarkDetector];
    // Or, to change the default settings:
    // FIRVisionCloudLandmarkDetector *landmarkDetector =
    //     [vision cloudLandmarkDetectorWithOptions:options];
    
  2. Aby wywołać Cloud Vision, obraz musi być sformatowany jako ciąg zakodowany w base64. Przetworzyć UIImage :

    Szybki

    guard let imageData = uiImage.jpegData(compressionQuality: 1.0f) else { return }
    let base64encodedImage = imageData.base64EncodedString()

    Cel C

    NSData *imageData = UIImageJPEGRepresentation(uiImage, 1.0f);
    NSString *base64encodedImage =
      [imageData base64EncodedStringWithOptions:NSDataBase64Encoding76CharacterLineLength];
  3. Następnie przekazać obraz do detect(in:) metodą:

    Szybki

    cloudDetector.detect(in: visionImage) { landmarks, error in
      guard error == nil, let landmarks = landmarks, !landmarks.isEmpty else {
        // ...
        return
      }
    
      // Recognized landmarks
      // ...
    }
    

    Cel C

    [landmarkDetector detectInImage:image
                         completion:^(NSArray<FIRVisionCloudLandmark *> *landmarks,
                                      NSError *error) {
      if (error != nil) {
        return;
      } else if (landmarks != nil) {
        // Got landmarks
      }
    }];
    

Uzyskaj informacje o rozpoznanych punktach orientacyjnych

Jeśli rozpoznawanie góry powiedzie, tablica VisionCloudLandmark przedmioty zostaną przekazane do obsługi realizacji. Z każdego obiektu można uzyskać informacje o punkcie orientacyjnym rozpoznanym na obrazie.

Na przykład:

Szybki

for landmark in landmarks {
  let landmarkDesc = landmark.landmark
  let boundingPoly = landmark.frame
  let entityId = landmark.entityId

  // A landmark can have multiple locations: for example, the location the image
  // was taken, and the location of the landmark depicted.
  for location in landmark.locations {
    let latitude = location.latitude
    let longitude = location.longitude
  }

  let confidence = landmark.confidence
}

Cel C

for (FIRVisionCloudLandmark *landmark in landmarks) {
   NSString *landmarkDesc = landmark.landmark;
   CGRect frame = landmark.frame;
   NSString *entityId = landmark.entityId;

   // A landmark can have multiple locations: for example, the location the image
   // was taken, and the location of the landmark depicted.
   for (FIRVisionLatitudeLongitude *location in landmark.locations) {
     double latitude = [location.latitude doubleValue];
     double longitude = [location.longitude doubleValue];
   }

   float confidence = [landmark.confidence floatValue];
}

Następne kroki