Firebase Machine Learning
앱에서 머신러닝을 사용해 실제로 발생하는 문제를 해결해 보세요.
Firebase Machine Learning은 모바일 SDK로 Google의 머신러닝 기술을 강력하고 사용하기 쉬운 Android 및 Apple 앱에 대한 전문 지식을 습득할 수 있습니다. 패키지에서 찾을 수 있습니다. 머신러닝 분야에 경험이 있든 없든 코드 몇 줄만 작성하면 필요한 기능을 구현할 수 있습니다. 따라서 신경망이나 모델 최적화에 대한 심층적인 지식 없이도 시작할 수 있습니다. 반면 숙련된 ML 개발자라면 Firebase ML는 커스텀 API를 사용하는 데 도움이 되는 편리한 API를 모바일 앱의 TensorFlow Lite 모델
주요 기능
커스텀 모델 호스팅 및 배포 |
기기별 추론에는 자체 TensorFlow Lite 모델을 사용합니다. 모델을 Firebase에 배포하기만 하면 자동으로 호스팅되고 앱에 제공됩니다. Firebase가 최신 버전의 모델을 사용자에게 동적으로 제공하므로 사용자에게 새 버전의 앱을 푸시하지 않고도 모델을 정기적으로 업데이트할 수 있습니다. 와 함께 Firebase ML를 사용하는 경우 Remote Config를 사용하면 여러 사용자에게 다양한 모델을 제공할 수 있습니다. A/B Testing를 사용하면 실험을 통해 실적이 가장 우수한 모델을 찾을 수 있습니다 (자세한 내용은 Apple 및 Android 가이드). |
일반적인 사용 사례를 위한 프로덕션 대응 |
Firebase ML에는 일반적인 모바일을 위한 즉시 사용 가능한 API 집합이 함께 제공됩니다. 사용 사례: 텍스트 인식, 이미지 라벨 지정, 랜드마크 식별 데이터를 Firebase ML 라이브러리에 전달하기만 하면 정보를 얻을 수 있습니다. 이러한 API는 Google Cloud의 강력한 기능을 활용합니다. 머신러닝 기술을 사용하여 최고의 정확성을 제공합니다. |
클라우드 및 기기별 모델 비교
Firebase ML에는 클라우드나 기기에서 작동하는 API가 있습니다. ML API를 클라우드 API 또는 온디바이스 API라고 설명할 때는 추론을 수행하는 머신, 즉 추론을 수행하는 제공하는 데이터에 대한 인사이트를 발견하는 ML 모델 Firebase ML 후 Google Cloud 또는 사용자의 있습니다.
텍스트 인식, 이미지 라벨 지정, 랜드마크 인식 API는 클라우드에서 추론을 수행합니다. 이러한 모델은 비교 가능한 기기별 모델보다 연산 능력이 뛰어나고 메모리가 많으므로 결과적으로 추론 정확도와 정밀도가 기기별 모델보다 더 높습니다. 반면 이러한 API에 대한 모든 요청을 처리하려면 네트워크 왕복이 필요하므로 동영상 처리와 같이 실시간 애플리케이션과 지연 시간이 짧은 애플리케이션에는 적합하지 않습니다.
커스텀 모델 API는 기기에서 실행되는 ML 모델을 처리합니다. 이러한 특성이 사용하고 생성하는 모델은 TensorFlow Lite 모델이며 휴대기기에서 실행하도록 최적화되었습니다. 이러한 모델의 가장 큰 장점은 네트워크 연결이 필요하지 않으며 실시간으로 동영상 프레임 처리 등의 작업을 수행할 때 매우 빠르게 실행할 수 있다는 점입니다.
Firebase ML 제공 혜택 사용자에게 커스텀 모델을 배포하는 기능을 기기 Google 서버에 업로드합니다. Firebase 지원 앱이 필요 시 기기에 모델을 다운로드합니다. 이렇게 하면 앱의 초기 설치 크기를 작게 유지할 수 있으며 앱을 다시 게시할 필요 없이 ML 모델을 교체할 수 있습니다.
ML Kit: 즉시 사용 가능한 기기별 모델
기기에서 실행되는 선행 학습된 모델을 찾고 있다면 ML Kit를 확인하세요. ML Kit는 iOS 및 Android용으로 제공되며 다양한 사용 사례에 대한 API를 지원합니다.
- 텍스트 인식
- 이미지 라벨 지정
- 객체 감지 및 추적
- 얼굴 인식 및 윤곽 추적
- 바코드 스캔
- 언어 식별
- 번역
- 스마트 답장