Firebase 머신러닝

앱에서 머신러닝을 사용해 실제로 발생하는 문제를 해결해 보세요.

Firebase 머신러닝은 강력하고 사용하기 쉬운 패키지로 Android 및 Apple 앱에 Google의 머신러닝 전문 지식을 적용하는 모바일 SDK입니다. 머신러닝 분야에 경험이 있든 없든 코드 몇 줄만 작성하면 필요한 기능을 구현할 수 있습니다. 따라서 신경망이나 모델 최적화에 대한 심층적인 지식 없이도 시작할 수 있습니다. 숙련된 ML 개발자인 경우, 모바일 앱에서 커스텀 TensorFlow Lite 모델을 사용하는 데 유용한 Firebase ML의 API를 사용할 수 있습니다.

주요 기능

커스텀 모델 호스팅 및 배포

기기별 추론에는 자체 TensorFlow Lite 모델을 사용합니다. 모델을 Firebase에 배포하기만 하면 자동으로 호스팅되고 앱에 제공됩니다. Firebase가 최신 버전의 모델을 사용자에게 동적으로 제공하므로 사용자에게 새 버전의 앱을 푸시하지 않고도 모델을 정기적으로 업데이트할 수 있습니다.

Firebase ML을 원격 구성과 함께 사용하면 다양한 사용자 세그먼트에 다양한 모델을 제공하고 A/B 테스팅을 통해 실험을 실행하여 실적이 가장 우수한 모델을 찾을 수 있습니다(AppleAndroid 가이드 참조).

일반적인 사용 사례에 즉시 사용

Firebase ML에는 텍스트 인식, 이미지 라벨 지정, 랜드마크 식별과 같은 일반적인 모바일 사용 사례에 즉시 사용할 수 있는 API가 포함되어 있습니다. Firebase ML 라이브러리에 데이터를 전달하기만 하면 필요한 정보를 확인할 수 있습니다. 이러한 API는 Google Cloud의 강력한 머신러닝 기술을 활용하여 가장 높은 정확성을 제공합니다.

클라우드 및 기기별 모델 비교

Firebase ML에는 클라우드 또는 기기에서 작동하는 API가 있습니다. ML API를 Cloud API 또는 기기별 API로 설명할 때는 추론을 수행하는 머신, 즉 ML 모델을 사용하여 개발자가 제공한 데이터에 대한 유용한 정보를 검색하는 머신을 말하는 것입니다. Firebase ML의 경우 Google Cloud 또는 사용자의 휴대기기에서 이러한 작업이 수행됩니다.

텍스트 인식, 이미지 라벨 지정, 랜드마크 인식 API는 클라우드에서 추론을 수행합니다. 이러한 모델은 비교 가능한 기기별 모델보다 연산 능력이 뛰어나고 메모리가 많으므로 결과적으로 추론 정확도와 정밀도가 기기별 모델보다 더 높습니다. 반면 이러한 API에 대한 모든 요청을 처리하려면 네트워크 왕복이 필요하므로 동영상 처리와 같이 실시간 애플리케이션과 지연 시간이 짧은 애플리케이션에는 적합하지 않습니다.

커스텀 모델 API는 기기에서 실행되는 ML 모델을 처리합니다. 이러한 특성이 사용하고 생성하는 모델은 TensorFlow Lite 모델이며 휴대기기에서 실행하도록 최적화되었습니다. 이러한 모델의 가장 큰 장점은 네트워크 연결이 필요하지 않으며 실시간으로 동영상 프레임 처리 등의 작업을 수행할 때 매우 빠르게 실행할 수 있다는 점입니다.

Firebase ML은 커스텀 모델을 Google 서버에 업로드하여 사용자 기기에 배포할 수 있는 기능을 제공합니다. Firebase 지원 앱이 필요 시 기기에 모델을 다운로드합니다. 이렇게 하면 앱의 초기 설치 크기를 작게 유지할 수 있으며 앱을 다시 게시할 필요 없이 ML 모델을 교체할 수 있습니다.

ML Kit: 즉시 사용 가능한 기기별 모델

기기에서 실행되는 선행 학습된 모델을 찾고 있다면 ML Kit를 확인하세요. ML Kit는 iOS 및 Android용으로 제공되며 다양한 사용 사례에 대한 API를 지원합니다.

  • 텍스트 인식
  • 이미지 라벨 지정
  • 객체 감지 및 추적
  • 얼굴 인식 및 윤곽 추적
  • 바코드 스캔
  • 언어 식별
  • 번역
  • 스마트 답장

다음 단계