ML Kit สําหรับ Firebase
ใช้แมชชีนเลิร์นนิงในแอปเพื่อแก้ปัญหาในชีวิตจริง
ML Kit เป็น SDK สำหรับอุปกรณ์เคลื่อนที่ที่นำความเชี่ยวชาญด้านแมชชีนเลิร์นนิงของ Google มาสู่ แอป Android และ iOS ในแพ็กเกจที่มีประสิทธิภาพแต่ใช้งานง่าย ไม่ว่าคุณจะเป็นมือใหม่ หรือมีประสบการณ์ด้านแมชชีนเลิร์นนิง คุณก็สามารถนำฟังก์ชันการทำงาน คุณต้องการโค้ดเพียงไม่กี่บรรทัด ไม่จำเป็นต้องมีความรู้ที่ลึกซึ้งเกี่ยวกับ โครงข่ายระบบประสาทเทียมหรือการเพิ่มประสิทธิภาพโมเดลเพื่อเริ่มต้นใช้งาน ในทางกลับกัน หากคุณ เป็นนักพัฒนาซอฟต์แวร์ ML มากประสบการณ์ ML Kit มี API ที่ใช้งานง่าย คุณใช้โมเดล TensorFlow Lite ที่กำหนดเองในแอปบนอุปกรณ์เคลื่อนที่
ความสามารถที่สำคัญ
พร้อมสำหรับการใช้งานจริงสำหรับ Use Case ทั่วไป |
ML Kit มาพร้อมกับชุด API ที่พร้อมใช้งานสำหรับการใช้งานบนอุปกรณ์เคลื่อนที่ทั่วไป กรณี: การจดจำข้อความ การตรวจจับใบหน้า การระบุจุดสังเกต การสแกน บาร์โค้ด การติดป้ายกำกับรูปภาพ และระบุภาษาของข้อความ เพียงส่งข้อมูลไปยังไลบรารี ML Kit แล้วไลบรารีจะแสดงข้อมูลที่คุณต้องการ |
บนอุปกรณ์หรือในระบบคลาวด์ |
API ที่เลือกของ ML Kit จะทำงานบนอุปกรณ์หรือในระบบคลาวด์ API ในอุปกรณ์สามารถประมวลผลข้อมูลของคุณได้อย่างรวดเร็วและทำงานได้อย่างรวดเร็ว เมื่อไม่มีการเชื่อมต่อเครือข่าย ในทางกลับกัน API ในระบบคลาวด์ของเรา ใช้ประโยชน์จากเทคโนโลยีแมชชีนเลิร์นนิงของ Google Cloud เพื่อช่วยให้คุณ มีความแม่นยำมากขึ้น |
ทำให้โมเดลที่กำหนดเองใช้งานได้ |
หาก API ของ ML Kit ไม่ครอบคลุม Use Case ของคุณ คุณก็สามารถนำ เป็นเจ้าของโมเดล TensorFlow Lite ที่มีอยู่แล้ว เพียงอัปโหลดโมเดลของคุณไปยัง Firebase และเราจะดูแลโฮสติ้งและแสดงโฆษณาในแอป ML Kit ทำหน้าที่เป็นเลเยอร์ API ให้กับโมเดลที่กำหนดเองของคุณ เรียกใช้และใช้งาน |
วิธีการทำงาน
ML Kit ช่วยให้การใช้เทคนิค ML ในแอปเป็นเรื่องง่ายด้วยการนำเทคโนโลยี ML ของ Google เช่น Google Cloud Vision API, TensorFlow Lite และ Android Neural Networks API มารวมไว้ใน SDK เดียว ไม่ว่าคุณจะต้องการพลังแห่งการประมวลผลในระบบคลาวด์ ความสามารถแบบเรียลไทม์ของโมเดลในอุปกรณ์ที่เพิ่มประสิทธิภาพสำหรับอุปกรณ์เคลื่อนที่ หรือ ML Kit ให้ความยืดหยุ่นของโมเดล TensorFlow Lite ที่กำหนดเอง ด้วยโค้ดเพียงไม่กี่บรรทัด
มีฟีเจอร์อะไรบ้างในอุปกรณ์หรือในระบบคลาวด์
เส้นทางการใช้งาน
ผสานรวม SDK | รวม SDK อย่างรวดเร็วโดยใช้ Gradle หรือ CocoaPods | |
เตรียมข้อมูลอินพุต | เช่น หากคุณใช้ฟีเจอร์การมองเห็น ให้จับภาพจากกล้องและสร้างข้อมูลเมตาที่จําเป็น เช่น การหมุนภาพ หรือแจ้งให้ผู้ใช้เลือกรูปภาพจากแกลเลอรี | |
ใช้โมเดล ML กับข้อมูล | การนำโมเดล ML ไปใช้กับข้อมูลของคุณจะเป็นการสร้างข้อมูลเชิงลึก เช่น สภาวะทางอารมณ์ของใบหน้าที่ตรวจจับได้ หรือวัตถุและแนวคิดที่ อยู่ในรูปภาพ ทั้งนี้ขึ้นอยู่กับฟีเจอร์ที่คุณใช้ ใช้ค่าเหล่านี้ ข้อมูลเชิงลึกเพื่อเพิ่มประสิทธิภาพฟีเจอร์ต่างๆ ในแอป เช่น การแต่งรูปภาพอัตโนมัติ การสร้างข้อมูลเมตา หรืออะไรก็ตามที่คุณนึกออก |
ขั้นตอนถัดไป
- สํารวจ API ที่พร้อมใช้งาน ได้แก่ การจดจําข้อความ การตรวจจับใบหน้า การสแกนบาร์โค้ด การติดป้ายกำกับรูปภาพ การตรวจจับและติดตามวัตถุ การจดจําจุดสังเกต การตอบกลับอัจฉริยะ การแปลภาษา และ การระบุภาษา
- ฝึกโมเดลการติดป้ายกำกับรูปภาพของคุณเองด้วย AutoML Vision Edge
- เรียนรู้เกี่ยวกับการใช้รูปแบบที่กำหนดเองที่เพิ่มประสิทธิภาพสำหรับอุปกรณ์เคลื่อนที่ใน แอป