ML Kit สำหรับ Firebase
ใช้แมชชีนเลิร์นนิงในแอปเพื่อแก้ไขปัญหาในชีวิตจริง
ML Kit เป็น SDK อุปกรณ์เคลื่อนที่ที่นำความเชี่ยวชาญด้านแมชชีนเลิร์นนิงของ Google มาสู่แอป Android และ iOS ในแพ็กเกจที่ทรงพลังแต่ใช้งานง่าย ไม่ว่าคุณจะเป็นมือใหม่หรือมีประสบการณ์ด้านแมชชีนเลิร์นนิง ก็ติดตั้งใช้งานฟังก์ชันที่ต้องการได้ในโค้ดเพียงไม่กี่บรรทัด คุณไม่จำเป็นต้องมีความรู้เชิงลึกเกี่ยวกับโครงข่ายประสาทหรือการเพิ่มประสิทธิภาพโมเดลเพื่อเริ่มต้นใช้งาน ในทางกลับกัน หากคุณเป็นนักพัฒนาซอฟต์แวร์ ML ที่มีประสบการณ์ ML Kit จะมี API ที่ใช้งานสะดวกเพื่อช่วยให้คุณใช้โมเดล TensorFlow Lite ที่กำหนดเองในแอปบนอุปกรณ์เคลื่อนที่
ความสามารถที่สำคัญ
พร้อมสำหรับการใช้งานจริงสำหรับ Use Case ทั่วไป |
ML Kit มาพร้อมกับชุด API ที่พร้อมใช้งานสำหรับกรณีการใช้งานทั่วไปในอุปกรณ์เคลื่อนที่ เช่น การจดจำข้อความ การตรวจจับใบหน้า การระบุจุดสังเกต การสแกนบาร์โค้ด การติดป้ายกำกับรูปภาพ และการระบุภาษาของข้อความ เพียงส่งผ่านข้อมูลไปยังคลัง ML Kit คุณจะได้รับข้อมูลที่คุณต้องการ |
ในอุปกรณ์หรือในระบบคลาวด์ |
API ที่เลือกของ ML Kit จะทำงานบนอุปกรณ์หรือในระบบคลาวด์ API ในอุปกรณ์สามารถประมวลผลข้อมูลของคุณได้อย่างรวดเร็วและทำงานได้แม้ไม่มีการเชื่อมต่อเครือข่าย ในทางกลับกัน API ในระบบคลาวด์ของเราใช้ประโยชน์จากขุมพลังของเทคโนโลยีแมชชีนเลิร์นนิงของ Google Cloud เพื่อเพิ่มความแม่นยำในระดับที่สูงขึ้น |
ทำให้โมเดลที่กำหนดเองใช้งานได้ |
หาก API ของ ML Kit ไม่ครอบคลุม Use Case ของคุณ คุณก็นำโมเดล TensorFlow Lite ที่มีอยู่มาใช้ได้ทุกเมื่อ เพียงอัปโหลดโมเดลไปยัง Firebase และเราจะดูแลโฮสติ้งและนำไปใช้กับแอปของคุณ โดย ML Kit จะทำหน้าที่เป็นเลเยอร์ API ให้กับโมเดลที่กำหนดเองเพื่อให้เรียกใช้และใช้งานได้ง่ายขึ้น |
ทำงานอย่างไร
ML Kit ทำให้การใช้เทคนิค ML ในแอปเป็นเรื่องง่ายด้วยการนำเทคโนโลยี ML ของ Google เช่น Google Cloud Vision API, TensorFlow Lite และ Android Neural Networks API มาไว้ด้วยกันใน SDK เดียว ไม่ว่าคุณจะต้องการขุมพลังการประมวลผลในระบบคลาวด์ ความสามารถแบบเรียลไทม์ของโมเดลบนอุปกรณ์ที่เพิ่มประสิทธิภาพสำหรับอุปกรณ์เคลื่อนที่ หรือความยืดหยุ่นของโมเดล TensorFlow Lite ที่กำหนดเอง ML Kit ก็ทำให้ทั้งหมดนี้เป็นไปได้ด้วยโค้ดเพียงไม่กี่บรรทัด
มีฟีเจอร์อะไรบ้างในอุปกรณ์หรือในระบบคลาวด์
เส้นทางการใช้งาน
ผสานรวม SDK | รวม SDK อย่างรวดเร็วโดยใช้ Gradle หรือ CocoaPods | |
เตรียมข้อมูลอินพุต | เช่น หากคุณกำลังใช้ฟีเจอร์การมองเห็น ให้จับภาพจากกล้องแล้วสร้างข้อมูลเมตาที่จำเป็น เช่น การหมุนรูปภาพ หรือแจ้งให้ผู้ใช้เลือกรูปภาพจากแกลเลอรี | |
ใช้โมเดล ML กับข้อมูลของคุณ | การนำโมเดล ML ไปใช้กับข้อมูลจะเป็นการสร้างข้อมูลเชิงลึก เช่น สถานะทางอารมณ์ของใบหน้าที่ตรวจพบหรือวัตถุและแนวคิดที่จำได้ในรูปภาพ โดยขึ้นอยู่กับฟีเจอร์ที่คุณใช้ ใช้ข้อมูลเชิงลึกเหล่านี้เพื่อขับเคลื่อนฟีเจอร์ต่างๆ ในแอป เช่น การแต่งรูปภาพ การสร้างข้อมูลเมตาอัตโนมัติ หรืออะไรก็ตามที่นึกออก |
ขั้นตอนถัดไป
- สำรวจ API ที่พร้อมใช้งาน ได้แก่ การจดจำข้อความ การตรวจจับใบหน้า การสแกนบาร์โค้ด การติดป้ายกำกับรูปภาพ การตรวจจับและติดตามวัตถุ การจดจำจุดสังเกต ช่วยตอบ การแปล และ การระบุภาษา
- ฝึกโมเดลการติดป้ายกำกับรูปภาพของคุณเองด้วย AutoML Vision Edge
- เรียนรู้เกี่ยวกับการใช้รูปแบบที่กำหนดเองที่เพิ่มประสิทธิภาพสำหรับอุปกรณ์เคลื่อนที่ในแอปของคุณ