ML Kit dla Firebase
Używaj w swoich aplikacjach systemów uczących się, aby rozwiązywać rzeczywiste problemy.
ML Kit to mobilny pakiet SDK, który udostępnia doświadczenie Google w dziedzinie systemów uczących się w aplikacjach na Androida i iOS w zaawansowanym i łatwym w obsłudze pakiecie. Niezależnie od tego, czy masz doświadczenie z systemami uczącymi się, możesz wdrożyć potrzebne funkcje za pomocą kilku linijek kodu. Nie trzeba mieć dogłębnej wiedzy o sieciach neuronowych ani optymalizacji modeli. Z drugiej strony, jeśli jesteś doświadczonym programistą ML, narzędzie ML Kit zapewnia wygodne interfejsy API, które pomagają używać niestandardowych modeli TensorFlow Lite w aplikacjach mobilnych.
Najważniejsze funkcje
Gotowość do wdrożenia w typowych przypadkach użycia |
ML Kit zawiera zestaw gotowych do użycia interfejsów API do typowych zastosowań na urządzeniach mobilnych: rozpoznawania tekstu, rozpoznawania twarzy, rozpoznawania punktów orientacyjnych, skanowania kodów kreskowych, oznaczania obrazów etykietami i identyfikowania języka tekstu. Wystarczy, że prześlesz dane do biblioteki ML Kit, aby uzyskać potrzebne informacje. |
Na urządzeniu lub w chmurze |
Wybrane przez ML Kit interfejsy API, które działają na urządzeniu lub w chmurze. Nasze interfejsy API działające na urządzeniu mogą szybko przetwarzać dane i działać nawet bez połączenia sieciowego. Z kolei nasze interfejsy API działające w chmurze wykorzystują możliwości technologii systemów uczących się Google Cloud, aby zapewnić jeszcze wyższy poziom dokładności. |
Wdrażanie modeli niestandardowych |
Jeśli interfejsy API ML Kit nie obejmują Twoich przypadków użycia, zawsze możesz zastosować własne istniejące modele TensorFlow Lite. Wystarczy, że prześlesz model do Firebase, a my zajmiemy się jego hostingiem oraz udostępnianiem w Twojej aplikacji. ML Kit działa jak warstwa interfejsu API Twojego modelu niestandardowego, co ułatwia jego uruchamianie i używanie. |
Jak to działa?
ML Kit ułatwia stosowanie technik ML w aplikacjach dzięki połączeniu technologii ML Google, takich jak Google Cloud Vision API, TensorFlow Lite i Android Neural Networks API w jednym pakiecie SDK. Niezależnie od tego, czy potrzebujesz mocy przetwarzania w chmurze, możliwości w czasie rzeczywistym w przypadku modeli zoptymalizowanych pod kątem urządzeń mobilnych czy elastyczności niestandardowych modeli TensorFlow Lite, ML Kit umożliwia Ci to za pomocą kilku linijek kodu.
Jakie funkcje są dostępne na urządzeniu lub w chmurze?
Ścieżka implementacji
Integracja pakietu SDK | Możesz szybko dodać pakiet SDK za pomocą Gradle lub CocoaPods. | |
Przygotowywanie danych wejściowych | Jeśli na przykład korzystasz z funkcji rozpoznawania obrazów, zrób zdjęcie aparatem i wygeneruj niezbędne metadane, takie jak obrót obrazu, lub poproś użytkownika o wybranie zdjęcia ze swojej galerii. | |
Stosowanie modelu ML do danych | Zastosowanie modelu ML do danych generuje obserwacje takie jak stan emocjonalny wykrytych twarzy lub obiekty i koncepcje rozpoznane na obrazie (w zależności od użytej funkcji). Wykorzystaj te statystyki do ulepszania funkcji aplikacji, takich jak ozdabianie zdjęć, automatyczne generowanie metadanych i wiele innych rzeczy. |
Dalsze kroki
- Poznaj gotowe do użycia interfejsy API: rozpoznawanie tekstu, wykrywanie twarzy, skanowanie kodów kreskowych, oznaczanie obrazów, wykrywanie i śledzenie obiektów, rozpoznawanie punktów orientacyjnych, Inteligentna odpowiedź, tłumaczenie i identyfikacja języka.
- Wytrenuj własny model oznaczania obrazów za pomocą AutoML Vision Edge.
- Dowiedz się więcej o używaniu w aplikacji modeli niestandardowych zoptymalizowanych pod kątem urządzeń mobilnych.