Zestaw ML dla Firebase

Korzystaj z uczenia maszynowego w swoich aplikacjach, aby rozwiązywać rzeczywiste problemy.

ML Kit to mobilny pakiet SDK, który przenosi wiedzę Google dotyczącą uczenia maszynowego do aplikacji na Androida i iOS w potężnym, ale łatwym w użyciu pakiecie. Niezależnie od tego, czy jesteś nowy, czy masz doświadczenie w uczeniu maszynowym, możesz zaimplementować potrzebne funkcje w zaledwie kilku linijkach kodu. Aby rozpocząć, nie jest wymagana głęboka wiedza na temat sieci neuronowych ani optymalizacji modeli. Z drugiej strony, jeśli jesteś doświadczonym programistą ML, ML Kit zapewnia wygodne interfejsy API, które pomogą Ci używać niestandardowych modeli TensorFlow Lite w aplikacjach mobilnych.

Kluczowe możliwości

Gotowy do produkcji dla typowych zastosowań

ML Kit zawiera zestaw gotowych do użycia interfejsów API do typowych zastosowań mobilnych: rozpoznawania tekstu, wykrywania twarzy, identyfikowania punktów orientacyjnych, skanowania kodów kreskowych, etykietowania obrazów i identyfikowania języka tekstu. Po prostu przekaż dane do biblioteki ML Kit, a otrzymasz potrzebne informacje.

Na urządzeniu lub w chmurze

Wybrane interfejsy API ML Kit działają na urządzeniu lub w chmurze. Nasze interfejsy API na urządzeniu mogą szybko przetwarzać Twoje dane i działać nawet wtedy, gdy nie ma połączenia sieciowego. Z drugiej strony nasze interfejsy API oparte na chmurze wykorzystują moc technologii uczenia maszynowego Google Cloud, aby zapewnić jeszcze wyższy poziom dokładności.

Wdrażaj niestandardowe modele

Jeśli interfejsy API ML Kit nie obejmują Twoich przypadków użycia, zawsze możesz przynieść własne istniejące modele TensorFlow Lite. Po prostu prześlij swój model do Firebase, a my zajmiemy się hostingiem i udostępnieniem go w Twojej aplikacji. ML Kit działa jako warstwa API dla Twojego niestandardowego modelu, ułatwiając jego uruchamianie i użytkowanie.

Jak to działa?

ML Kit ułatwia stosowanie technik uczenia maszynowego w aplikacjach, łącząc technologie Google ML, takie jak Google Cloud Vision API , TensorFlow Lite i Android Neural Networks API w jednym zestawie SDK. Niezależnie od tego, czy potrzebujesz mocy przetwarzania w chmurze, możliwości działających w czasie rzeczywistym modeli na urządzeniu zoptymalizowanych pod kątem urządzeń mobilnych, czy też elastyczności niestandardowych modeli TensorFlow Lite, ML Kit umożliwia to za pomocą zaledwie kilku linijek kodu.

Jakie funkcje są dostępne na urządzeniu lub w chmurze?

Funkcja Na urządzeniu Chmura
Rozpoznawanie tekstu
Wykrywanie twarzy
Skanowanie kodów kreskowych
Etykietowanie obrazu
Wykrywanie i śledzenie obiektów
Rozpoznanie punktu orientacyjnego
Identyfikacja języka
Tłumaczenie
Inteligentna odpowiedź
Wnioskowanie o modelu AutoML
Wnioskowanie o modelu niestandardowym

Ścieżka realizacji

Zintegruj pakiet SDK Szybko dołącz pakiet SDK za pomocą Gradle lub CocoaPods.
Przygotuj dane wejściowe Na przykład, jeśli korzystasz z funkcji widzenia, przechwyć obraz z aparatu i wygeneruj niezbędne metadane, takie jak obrót obrazu, lub poproś użytkownika o wybranie zdjęcia z galerii.
Zastosuj model ML do swoich danych Stosując model ML do swoich danych, generujesz spostrzeżenia, takie jak stan emocjonalny wykrytych twarzy lub obiekty i koncepcje, które zostały rozpoznane na obrazie, w zależności od użytej funkcji. Skorzystaj z tych spostrzeżeń, aby usprawnić funkcje swojej aplikacji, takie jak ozdabianie zdjęć, automatyczne generowanie metadanych lub cokolwiek innego, co możesz sobie wyobrazić.

Następne kroki