Catch up on everthing we announced at this year's Firebase Summit. Learn more

Zestaw ML dla Firebase

Wykorzystaj uczenie maszynowe w swoich aplikacjach do rozwiązywania rzeczywistych problemów.

ML Kit to mobilny pakiet SDK, który zapewnia wiedzę o uczeniu maszynowym firmy Google w aplikacjach na Androida i iOS w potężnym, ale łatwym w użyciu pakiecie. Niezależnie od tego, czy jesteś nowy, czy doświadczony w uczeniu maszynowym, możesz zaimplementować potrzebne funkcje w zaledwie kilku wierszach kodu. Aby rozpocząć, nie trzeba mieć głębokiej wiedzy na temat sieci neuronowych ani optymalizacji modeli. Z drugiej strony, jeśli jesteś doświadczonym programistą ML, ML Kit zapewnia wygodne interfejsy API, które pomogą Ci korzystać z niestandardowych modeli TensorFlow Lite w aplikacjach mobilnych.

Kluczowe możliwości

Gotowy do produkcji dla typowych przypadków użycia

ML Kit zawiera zestaw gotowych do użycia interfejsów API do typowych zastosowań mobilnych: rozpoznawanie tekstu, wykrywanie twarzy, identyfikowanie punktów orientacyjnych, skanowanie kodów kreskowych, oznaczanie obrazów i identyfikowanie języka tekstu. Po prostu przekaż dane do biblioteki ML Kit, a otrzymasz potrzebne informacje.

Na urządzeniu lub w chmurze

Wybór interfejsów API w ML Kit działa na urządzeniu lub w chmurze. Nasze interfejsy API na urządzeniu mogą szybko przetwarzać Twoje dane i działać nawet wtedy, gdy nie ma połączenia sieciowego. Z drugiej strony nasze interfejsy API oparte na chmurze wykorzystują moc technologii uczenia maszynowego Google Cloud, aby zapewnić jeszcze wyższy poziom dokładności.

Wdróż modele niestandardowe

Jeśli interfejsy API ML Kit nie obejmują Twoich przypadków użycia, zawsze możesz przynieść własne istniejące modele TensorFlow Lite. Po prostu prześlij swój model do Firebase, a my zajmiemy się hostingiem i udostępnieniem go w Twojej aplikacji. ML Kit działa jako warstwa API dla Twojego niestandardowego modelu, ułatwiając jego uruchamianie i używanie.

Jak to działa?

ML Kit ułatwia zastosowanie techniki ml w swoich aplikacjach poprzez wprowadzenie technologii ML Google, takich jak API Google Cloud Vision , TensorFlow Lite oraz API Android Neural Networks razem w jednym SDK. Niezależnie od tego, czy potrzebujesz mocy przetwarzania w chmurze, możliwości działania w czasie rzeczywistym modeli na urządzeniu zoptymalizowanych pod kątem urządzeń mobilnych, czy elastyczności niestandardowych modeli TensorFlow Lite, ML Kit umożliwia to za pomocą zaledwie kilku linijek kodu.

Jakie funkcje są dostępne na urządzeniu lub w chmurze?

Funkcja Na urządzeniu Chmura
Rozpoznawanie tekstu
Wykrywanie twarzy
Skanowanie kodów kreskowych
Etykietowanie obrazu
Wykrywanie i śledzenie obiektów
Rozpoznawanie punktów orientacyjnych
Identyfikacja języka
Tłumaczenie
Inteligentna odpowiedź
Wnioskowanie o modelu AutoML
Wnioskowanie o modelu niestandardowym

Ścieżka wdrożenia

Zintegruj pakiet SDK Szybko dołącz SDK za pomocą Gradle lub CocoaPods.
Przygotuj dane wejściowe Na przykład, jeśli korzystasz z funkcji wizyjnej, przechwyć obraz z aparatu i wygeneruj niezbędne metadane, takie jak obracanie obrazu, lub poproś użytkownika o wybranie zdjęcia z jego galerii.
Zastosuj model ML do swoich danych Stosując model ML do swoich danych, generujesz spostrzeżenia, takie jak stan emocjonalny wykrytych twarzy lub obiekty i koncepcje rozpoznane na obrazie, w zależności od użytej funkcji. Skorzystaj z tych informacji, aby wzmocnić funkcje swojej aplikacji, takie jak upiększanie zdjęć, automatyczne generowanie metadanych lub cokolwiek innego, co możesz sobie wyobrazić.

Następne kroki