Firebase용 ML 키트
앱에서 머신 러닝을 사용하여 실제 문제를 해결하세요.
ML Kit는 강력하면서도 사용하기 쉬운 패키지로 Android 및 iOS 앱에 Google의 기계 학습 전문 지식을 제공하는 모바일 SDK입니다. 기계 학습에 익숙하지 않거나 경험이 많은 사용자이든 관계없이 몇 줄의 코드로 필요한 기능을 구현할 수 있습니다. 시작하기 위해 신경망이나 모델 최적화에 대한 깊은 지식이 필요하지 않습니다. 반면에 숙련된 ML 개발자라면 ML Kit가 모바일 앱에서 맞춤형 TensorFlow Lite 모델을 사용하는 데 도움이 되는 편리한 API를 제공합니다.
주요 기능
일반적인 사용 사례를 위한 프로덕션 준비 | ML Kit에는 텍스트 인식, 얼굴 감지, 랜드마크 식별, 바코드 스캔, 이미지 레이블 지정, 텍스트 언어 식별과 같은 일반적인 모바일 사용 사례에 즉시 사용할 수 있는 API 세트가 함께 제공됩니다. ML Kit 라이브러리에 데이터를 전달하기만 하면 필요한 정보가 제공됩니다. |
온디바이스 또는 클라우드 | ML Kit의 API 선택은 기기 또는 클라우드에서 실행됩니다. 당사의 온디바이스 API는 데이터를 빠르게 처리하고 네트워크에 연결되어 있지 않아도 작동합니다. 반면에 Google의 클라우드 기반 API는 Google Cloud의 강력한 기계 학습 기술을 활용하여 더 높은 수준의 정확도를 제공합니다. |
커스텀 모델 배포 | ML Kit의 API가 사용 사례를 다루지 않는 경우 언제든지 기존 TensorFlow Lite 모델을 가져올 수 있습니다. 모델을 Firebase에 업로드하기만 하면 앱 호스팅 및 제공을 처리해 드립니다. ML Kit는 사용자 지정 모델에 대한 API 계층 역할을 하므로 실행 및 사용이 더 간편해집니다. |
어떻게 작동합니까?
ML Kit를 사용하면 Google Cloud Vision API , TensorFlow Lite 및 Android Neural Networks API 와 같은 Google의 ML 기술을 단일 SDK에 통합하여 앱에 ML 기술을 쉽게 적용할 수 있습니다. 강력한 클라우드 기반 처리 기능, 모바일에 최적화된 온디바이스 모델의 실시간 기능 또는 맞춤형 TensorFlow Lite 모델의 유연성이 필요한 경우 ML Kit를 사용하면 몇 줄의 코드로 가능합니다.
장치 또는 클라우드에서 사용할 수 있는 기능은 무엇입니까?
특징 | 온디바이스 | 구름 |
---|---|---|
텍스트 인식 | ||
얼굴 인식 | ||
바코드 스캐닝 | ||
이미지 라벨링 | ||
물체 감지 및 추적 | ||
랜드마크 인식 | ||
언어 식별 | ||
번역 | ||
스마트 답장 | ||
AutoML 모델 추론 | ||
커스텀 모델 추론 |
구현 경로
SDK 통합 | Gradle 또는 CocoaPods를 사용하여 SDK를 빠르게 포함합니다. | |
입력 데이터 준비 | 예를 들어 비전 기능을 사용하는 경우 카메라에서 이미지를 캡처하고 이미지 회전과 같은 필요한 메타데이터를 생성하거나 사용자에게 갤러리에서 사진을 선택하라는 메시지를 표시합니다. | |
데이터에 ML 모델 적용 | ML 모델을 데이터에 적용하면 사용한 기능에 따라 감지된 얼굴의 감정 상태 또는 이미지에서 인식된 객체 및 개념과 같은 통찰력을 생성합니다. 이러한 통찰력을 사용하여 사진 장식, 자동 메타데이터 생성 또는 상상할 수 있는 모든 것과 같은 앱의 기능을 강화하십시오. |
다음 단계
- 바로 사용 가능한 API( 텍스트 인식 , 얼굴 감지 , 바코드 스캔 , 이미지 레이블 지정 , 객체 감지 및 추적 , 랜드마크 인식 , 스마트 답장 , 번역 , 언어 식별 )를 살펴보세요.
- AutoML Vision Edge 를 사용하여 자체 이미지 레이블 지정 모델을 학습시키세요.
- 앱에서 모바일에 최적화된 맞춤형 모델 을 사용하는 방법에 대해 알아보세요.