ML Kit を使用してランドマークを認識する(iOS)

ML Kit を使用すると、画像内にあるよく知られたランドマークを認識できます。

この API の使用例については、GitHub の ML Kit クイックスタート サンプルをご覧ください。

準備

  1. まだアプリに Firebase を追加していない場合は、スタートガイドの手順に沿って追加してください。
  2. Podfile に ML Kit ライブラリを含めます。
    pod 'Firebase/Core'
    pod 'Firebase/MLVision'
    
    プロジェクトのポッドをインストールまたは更新した後に、.xcworkspace を使用して Xcode プロジェクトを開くようにしてください。
  3. アプリに Firebase をインポートします。

    Swift

    import Firebase

    Objective-C

    @import Firebase;
  4. プロジェクトを Blaze プランにアップグレードしていない場合は、Firebase コンソールでアップグレードしてください。Blaze レベルのプロジェクトのみが Cloud Vision API を使用できます。
  5. Google Cloud Console で Cloud Vision API を有効にします。
    1. Cloud Console API ライブラリで Cloud Vision API を開きます。
    2. ページ上部のメニューで Firebase プロジェクトが選択されていることを確認します。
    3. API がまだ有効になっていない場合は、[有効にする] をクリックします。

ランドマーク検出ツールを構成する

デフォルトでは、Cloud 検出ツールは安定バージョンのモデルを使用して、最大 10 件の結果を返します。これらの設定のいずれかを変更する必要がある場合は、次の例のように VisionCloudDetectorOptions オブジェクトを使用して指定します。

Swift

let options = VisionCloudDetectorOptions()
options.modelType = .latest
options.maxResults = 20

Objective-C

  FIRVisionCloudDetectorOptions *options =
      [[FIRVisionCloudDetectorOptions alloc] init];
  options.modelType = FIRVisionCloudModelTypeLatest;
  options.maxResults = 20;
  

次のステップでは、Cloud 検出ツール オブジェクトを作成するときに VisionCloudDetectorOptions オブジェクトを渡します。

ランドマーク検出ツールを実行する

画像内のランドマークを認識するには、画像を UIImage または CMSampleBufferRef として VisionCloudLandmarkDetectordetect(in:) メソッドに渡します。

  1. VisionCloudLandmarkDetector のインスタンスを取得します。

    Swift

    lazy var vision = Vision.vision()
    let cloudDetector = vision.cloudLandmarkDetector(options: options)
    // Or, to use the default settings:
    // let cloudDetector = vision.cloudLandmarkDetector()
    

    Objective-C

    FIRVision *vision = [FIRVision vision];
    FIRVisionCloudLandmarkDetector *landmarkDetector = [vision cloudLandmarkDetector];
    // Or, to change the default settings:
    // FIRVisionCloudLandmarkDetector *landmarkDetector =
    //     [vision cloudLandmarkDetectorWithOptions:options];
    
  2. UIImage または CMSampleBufferRef を使用して VisionImage オブジェクトを作成します。

    UIImage を使用するには:

    1. 必要に応じて、imageOrientation プロパティが .up になるように画像を回転させます。
    2. 適切に回転させた UIImage を使用して VisionImage オブジェクトを作成します。回転メタデータにはデフォルト値の .topLeft を使用する必要があるため、値を指定しないでください。

      Swift

      let image = VisionImage(image: uiImage)

      Objective-C

      FIRVisionImage *image = [[FIRVisionImage alloc] initWithImage:uiImage];
      

    CMSampleBufferRef を使用するには:

    1. VisionImageMetadata オブジェクトを作成し、CMSampleBufferRef バッファに格納されている画像データの向きを指定します。

      たとえば、画像データを正しい向きにするには時計回りに 90 度回転させる必要がある場合は、次のようにします。

      Swift

      let metadata = VisionImageMetadata()
      metadata.orientation = .rightTop  // Row 0 is on the right and column 0 is on the top
      

      Objective-C

      // Row 0 is on the right and column 0 is on the top
      FIRVisionImageMetadata *metadata = [[FIRVisionImageMetadata alloc] init];
      metadata.orientation = FIRVisionDetectorImageOrientationRightTop;
      
    2. CMSampleBufferRef オブジェクトと回転メタデータを使用して VisionImage オブジェクトを作成します。

      Swift

      let image = VisionImage(buffer: bufferRef)
      image.metadata = metadata
      

      Objective-C

      FIRVisionImage *image = [[FIRVisionImage alloc] initWithBuffer:buffer];
      image.metadata = metadata;
      
  3. 次に、画像を detect(in:) メソッドに渡します。

    Swift

    cloudDetector.detect(in: visionImage) { landmarks, error in
      guard error == nil, let landmarks = landmarks, !landmarks.isEmpty else {
        // ...
        return
      }
    
      // Recognized landmarks
      // ...
    }
    

    Objective-C

    [landmarkDetector detectInImage:image
                         completion:^(NSArray<FIRVisionCloudLandmark *> *landmarks,
                                      NSError *error) {
      if (error != nil) {
        return;
      } else if (landmarks != nil) {
        // Got landmarks
      }
    }];
    

認識されたランドマークに関する情報を取得する

ランドマークの認識に成功すると、VisionCloudLandmark オブジェクトの配列が完了ハンドラに渡されます。各オブジェクトから、画像内で認識されたランドマークに関する情報を取得できます。

例:

Swift

for landmark in landmarks {
  let landmarkDesc = landmark.landmark
  let boundingPoly = landmark.frame
  let entityId = landmark.entityId

  // A landmark can have multiple locations: for example, the location the image
  // was taken, and the location of the landmark depicted.
  for location in landmark.locations {
    let latitude = location.latitude
    let longitude = location.longitude
  }

  let confidence = landmark.confidence
}

Objective-C

for (FIRVisionCloudLandmark *landmark in landmarks) {
   NSString *landmarkDesc = landmark.landmark;
   CGRect frame = landmark.frame;
   NSString *entityId = landmark.entityId;

   // A landmark can have multiple locations: for example, the location the image
   // was taken, and the location of the landmark depicted.
   for (FIRVisionLatitudeLongitude *location in landmark.locations) {
     double latitude = [location.latitude doubleValue];
     double longitude = [location.longitude doubleValue];
   }

   float confidence = [landmark.confidence floatValue];
}

フィードバックを送信...

ご不明な点がありましたら、Google のサポートページをご覧ください。