ชุด ML สำหรับ Firebase
ใช้การเรียนรู้ของเครื่องในแอปของคุณเพื่อแก้ไขปัญหาในโลกแห่งความเป็นจริง
ML Kit เป็น SDK มือถือที่นำความเชี่ยวชาญด้านการเรียนรู้ของเครื่องของ Google มาสู่แอป Android และ iOS ในแพ็คเกจที่ทรงพลังแต่ใช้งานง่าย ไม่ว่าคุณจะเป็นมือใหม่หรือมีประสบการณ์ด้านแมชชีนเลิร์นนิง คุณสามารถใช้งานฟังก์ชันที่ต้องการได้โดยใช้โค้ดเพียงไม่กี่บรรทัด ไม่จำเป็นต้องมีความรู้เชิงลึกเกี่ยวกับโครงข่ายประสาทเทียมหรือการเพิ่มประสิทธิภาพโมเดลเพื่อเริ่มต้น ในทางกลับกัน หากคุณเป็นนักพัฒนา ML ที่มีประสบการณ์ ML Kit มอบ API ที่สะดวกสบายซึ่งจะช่วยให้คุณใช้โมเดล TensorFlow Lite แบบกำหนดเองในแอปมือถือของคุณ
ความสามารถที่สำคัญ
พร้อมการผลิตสำหรับการใช้งานทั่วไป | ML Kit มาพร้อมกับชุด API ที่พร้อมใช้งานสำหรับกรณีการใช้งานบนมือถือทั่วไป: การจดจำข้อความ การตรวจจับใบหน้า การระบุจุดสังเกต การสแกนบาร์โค้ด การติดป้ายกำกับรูปภาพ และการระบุภาษาของข้อความ เพียงส่งข้อมูลไปยังไลบรารี ML Kit จากนั้นจะให้ข้อมูลที่คุณต้องการ |
บนอุปกรณ์หรือในระบบคลาวด์ | API ที่คัดสรรของ ML Kit ทำงานบนอุปกรณ์หรือในระบบคลาวด์ API บนอุปกรณ์ของเราสามารถประมวลผลข้อมูลของคุณได้อย่างรวดเร็วและทำงานได้แม้ในขณะที่ไม่มีการเชื่อมต่อเครือข่าย ในทางกลับกัน API บนระบบคลาวด์ของเราใช้ประโยชน์จากพลังของเทคโนโลยีแมชชีนเลิร์นนิงของ Google Cloud เพื่อให้คุณได้รับความแม่นยำในระดับที่สูงขึ้นไปอีก |
ปรับใช้โมเดลที่กำหนดเอง | หาก API ของ ML Kit ไม่ครอบคลุมกรณีการใช้งานของคุณ คุณสามารถนำโมเดล TensorFlow Lite ที่มีอยู่ของคุณเองมาใช้ได้ตลอดเวลา เพียงอัปโหลดโมเดลของคุณไปยัง Firebase แล้วเราจะดูแลการโฮสต์และให้บริการโมเดลนั้นแก่แอปของคุณ ML Kit ทำหน้าที่เป็นเลเยอร์ API ให้กับโมเดลที่คุณกำหนดเอง ทำให้เรียกใช้และใช้งานได้ง่ายขึ้น |
มันทำงานอย่างไร?
ML Kit ช่วยให้นำเทคนิค ML ไปประยุกต์ใช้ในแอปของคุณได้อย่างง่ายดาย โดยนำเทคโนโลยี ML ของ Google เช่น Google Cloud Vision API , TensorFlow Lite และ Android Neural Networks API มารวมกันใน SDK เดียว ไม่ว่าคุณจะต้องการพลังของการประมวลผลบนคลาวด์ ความสามารถแบบเรียลไทม์ของรุ่นบนอุปกรณ์เคลื่อนที่ที่ปรับให้เหมาะสม หรือความยืดหยุ่นของรุ่น TensorFlow Lite แบบกำหนดเอง ML Kit ทำให้มันเป็นไปได้ด้วยโค้ดเพียงไม่กี่บรรทัด
มีฟีเจอร์ใดบ้างบนอุปกรณ์หรือในระบบคลาวด์
เส้นทางการนำไปปฏิบัติ
บูรณาการ SDK | รวม SDK อย่างรวดเร็วโดยใช้ Gradle หรือ CocoaPods | |
เตรียมข้อมูลเข้า | ตัวอย่างเช่น หากคุณใช้ฟีเจอร์การมองเห็น ให้จับภาพจากกล้องและสร้างข้อมูลเมตาที่จำเป็น เช่น การหมุนภาพ หรือแจ้งให้ผู้ใช้เลือกรูปภาพจากแกลเลอรีของตน | |
ใช้โมเดล ML กับข้อมูลของคุณ | ด้วยการใช้โมเดล ML กับข้อมูลของคุณ คุณจะสามารถสร้างข้อมูลเชิงลึก เช่น สถานะทางอารมณ์ของใบหน้าที่ตรวจพบ หรือวัตถุและแนวคิดที่จดจำได้ในรูปภาพ ขึ้นอยู่กับคุณสมบัติที่คุณใช้ ใช้ข้อมูลเชิงลึกเหล่านี้เพื่อขับเคลื่อนฟีเจอร์ต่างๆ ในแอปของคุณ เช่น การตกแต่งรูปภาพ การสร้างข้อมูลเมตาอัตโนมัติ หรืออะไรก็ตามที่คุณจินตนาการได้ |
ขั้นตอนถัดไป
- สำรวจ API ที่พร้อมใช้งาน: การจดจำข้อความ การตรวจจับใบหน้า การสแกนบาร์โค้ด การติดป้ายกำกับรูปภาพ การตรวจจับและการติดตามวัตถุ การจดจำจุดสังเกต การตอบกลับอัจฉริยะ การแปล และ การระบุภาษา
- ฝึกฝนโมเดลการติดป้ายกำกับรูปภาพของคุณเองด้วย AutoML Vision Edge
- เรียนรู้เกี่ยวกับการใช้ โมเดลแบบกำหนดเอง ที่ปรับให้เหมาะกับมือถือในแอปของคุณ