ML Kit dla Firebase

Używaj w swoich aplikacjach systemów uczących się, aby rozwiązywać rzeczywiste problemy.

ML Kit to mobilny pakiet SDK, dzięki któremu zasoby systemów uczących się opracowane przez Google Aplikacje na Androida i iOS w wydajnym i łatwym w obsłudze pakiecie. Niezależnie od tego, czy dopiero zaczynasz swoją przygodę z systemami uczącymi się, czy też masz już w tej dziedzinie duże doświadczenie, możesz wdrożyć potrzebne funkcje za pomocą zaledwie kilku linii kodu. Nie potrzeba dogłębnej wiedzy sieci neuronowe lub optymalizację modeli. Z drugiej strony, jeśli to doświadczony programista ML, który zapewnia wygodne interfejsy API, używasz niestandardowych modeli TensorFlow Lite w aplikacjach mobilnych.

Najważniejsze funkcje

Gotowość do wdrożenia w typowych przypadkach użycia

ML Kit zawiera zestaw gotowych do użycia interfejsów API do typowych zastosowań na urządzeniach mobilnych przypadki: rozpoznawanie tekstu, wykrywanie twarzy, rozpoznawanie punktów orientacyjnych, skanowanie dzięki kodom kreskowym, oznaczaniu obrazów i identyfikacją języka tekstu. Po prostu przekazują dane do biblioteki ML Kit, dzięki czemu masz dostęp do informacji potrzeby.

Na urządzeniu lub w chmurze

Wybrane przez ML Kit interfejsy API, które działają na urządzeniu lub w chmurze. Nasze interfejsy API na urządzeniu mogą szybko przetwarzać dane i działać nawet wtedy, gdy nie ma połączenia z internetem. Z kolei nasze interfejsy API działające w chmurze wykorzystaj możliwości technologii systemów uczących się, z których korzysta Google Cloud aby uzyskać jeszcze większą dokładność.

Wdrażanie modeli niestandardowych

Jeśli interfejsy API ML Kit nie obsługują Twoich przypadków użycia, możesz zawsze użyć własnych istniejących modeli TensorFlow Lite. Po prostu prześlij swój model do Firebase, a my zajmiemy się hostingiem i udostępnianiem jej w Twojej aplikacji. ML Kit działa jak warstwa interfejsu API Twojego modelu niestandardowego, ułatwiając do uruchamiania i używania.

Jak to działa?

Pakiet ML Kit ułatwia stosowanie technik uczenia maszynowego w aplikacjach, ponieważ łączy w jednym pakiecie SDK technologie uczenia maszynowego Google, takie jak interfejs Google Cloud Vision API, TensorFlow Liteinterfejs API Android Neural Networks. Niezależnie od tego, czy potrzebna jest moc przetwarzania w chmurze, możliwości w czasie rzeczywistym modeli zoptymalizowanych pod kątem urządzeń mobilnych lub i elastycznych niestandardowych modeli TensorFlow Lite, co umożliwia korzystanie z ML Kit za pomocą kilku linijek kodu.

Jakie funkcje są dostępne na urządzeniu lub w chmurze?

Funkcja Na urządzeniu Chmura
Rozpoznawanie tekstu
Wykrywanie twarzy
Skanowanie kodów kreskowych
Oznaczanie obrazów etykietami
Wykrywanie obiektów śledzenie
Rozpoznawanie punktów orientacyjnych
Identyfikacja języka
Tłumaczenie
Inteligentna odpowiedź
Wnioskowanie modelu AutoML
Wykorzystanie niestandardowego modelu

Ścieżka implementacji

Integracja pakietu SDK Możesz szybko dodać pakiet SDK za pomocą Gradle lub CocoaPods.
Przygotowywanie danych wejściowych Jeśli na przykład korzystasz z funkcji rozpoznawania obrazów, zrób zdjęcie Camera i generowania niezbędnych metadanych, takich jak obrót obrazu czy prompt użytkownik wybiera zdjęcie ze swojej galerii.
Stosowanie modelu ML do danych Stosując model ML do swoich danych, generujesz obserwacje takie jak: stan emocjonalny wykrytych twarzy lub obiektów i koncepcji, rozpoznane na zdjęciu w zależności od użytej funkcji. Użyj tych statystyki dotyczące funkcji aplikacji, takich jak ozdabianie zdjęć, automatyczne metadanych i wiele innych.

Dalsze kroki