ML Kit dla Firebase
Używaj w swoich aplikacjach systemów uczących się, aby rozwiązywać rzeczywiste problemy.
ML Kit to mobilny pakiet SDK, dzięki któremu zasoby systemów uczących się opracowane przez Google Aplikacje na Androida i iOS w wydajnym i łatwym w obsłudze pakiecie. Niezależnie od tego, czy dopiero zaczynasz swoją przygodę z systemami uczącymi się, czy też masz już w tej dziedzinie duże doświadczenie, możesz wdrożyć potrzebne funkcje za pomocą zaledwie kilku linii kodu. Nie potrzeba dogłębnej wiedzy sieci neuronowe lub optymalizację modeli. Z drugiej strony, jeśli to doświadczony programista ML, który zapewnia wygodne interfejsy API, używasz niestandardowych modeli TensorFlow Lite w aplikacjach mobilnych.
Najważniejsze funkcje
Gotowość do wdrożenia w typowych przypadkach użycia |
ML Kit zawiera zestaw gotowych do użycia interfejsów API do typowych zastosowań na urządzeniach mobilnych przypadki: rozpoznawanie tekstu, wykrywanie twarzy, rozpoznawanie punktów orientacyjnych, skanowanie dzięki kodom kreskowym, oznaczaniu obrazów i identyfikacją języka tekstu. Po prostu przekazują dane do biblioteki ML Kit, dzięki czemu masz dostęp do informacji potrzeby. |
Na urządzeniu lub w chmurze |
Wybrane przez ML Kit interfejsy API, które działają na urządzeniu lub w chmurze. Nasze interfejsy API na urządzeniu mogą szybko przetwarzać dane i działać nawet wtedy, gdy nie ma połączenia z internetem. Z kolei nasze interfejsy API działające w chmurze wykorzystaj możliwości technologii systemów uczących się, z których korzysta Google Cloud aby uzyskać jeszcze większą dokładność. |
Wdrażanie modeli niestandardowych |
Jeśli interfejsy API ML Kit nie obsługują Twoich przypadków użycia, możesz zawsze użyć własnych istniejących modeli TensorFlow Lite. Po prostu prześlij swój model do Firebase, a my zajmiemy się hostingiem i udostępnianiem jej w Twojej aplikacji. ML Kit działa jak warstwa interfejsu API Twojego modelu niestandardowego, ułatwiając do uruchamiania i używania. |
Jak to działa?
Pakiet ML Kit ułatwia stosowanie technik uczenia maszynowego w aplikacjach, ponieważ łączy w jednym pakiecie SDK technologie uczenia maszynowego Google, takie jak interfejs Google Cloud Vision API, TensorFlow Lite i interfejs API Android Neural Networks. Niezależnie od tego, czy potrzebna jest moc przetwarzania w chmurze, możliwości w czasie rzeczywistym modeli zoptymalizowanych pod kątem urządzeń mobilnych lub i elastycznych niestandardowych modeli TensorFlow Lite, co umożliwia korzystanie z ML Kit za pomocą kilku linijek kodu.
Jakie funkcje są dostępne na urządzeniu lub w chmurze?
Ścieżka implementacji
Integracja pakietu SDK | Możesz szybko dodać pakiet SDK za pomocą Gradle lub CocoaPods. | |
Przygotowywanie danych wejściowych | Jeśli na przykład korzystasz z funkcji rozpoznawania obrazów, zrób zdjęcie Camera i generowania niezbędnych metadanych, takich jak obrót obrazu czy prompt użytkownik wybiera zdjęcie ze swojej galerii. | |
Stosowanie modelu ML do danych | Stosując model ML do swoich danych, generujesz obserwacje takie jak: stan emocjonalny wykrytych twarzy lub obiektów i koncepcji, rozpoznane na zdjęciu w zależności od użytej funkcji. Użyj tych statystyki dotyczące funkcji aplikacji, takich jak ozdabianie zdjęć, automatyczne metadanych i wiele innych. |
Dalsze kroki
- Poznaj gotowe do użycia interfejsy API: rozpoznawanie tekstu, wykrywanie twarzy, skanowanie kodów kreskowych, oznaczanie obrazów, wykrywanie obiektów śledzenie, rozpoznawalność za pomocą punktów orientacyjnych, Inteligentna odpowiedź, tłumaczenie oraz identyfikacja języka.
- Wytrenuj własny model oznaczania obrazów etykietami za pomocą AutoML Vision Edge.
- Dowiedz się więcej o korzystaniu z modeli niestandardowych zoptymalizowanych pod kątem urządzeń mobilnych w .