تنظيم صفحاتك في مجموعات
يمكنك حفظ المحتوى وتصنيفه حسب إعداداتك المفضّلة.
التعرّف على الوجوه
plat_iosplat_android
باستخدام واجهة برمجة التطبيقات للتعرّف على الوجوه في ML Kit، يمكنك رصد الوجوه في الصور
ملامح الوجه الرئيسية، والحصول على الخطوط العريضة للوجوه التي تم اكتشافها.
باستخدام ميزة "التعرّف على الوجه"، يمكنك الحصول على المعلومات التي تحتاجها لأداء مهام مثل
تحسين الصور الذاتية وصور الأشخاص، أو إنشاء صور رمزية من صورة المستخدم.
بما أنّ حزمة تعلّم الآلة قادرة على التعرّف على الوجوه في الوقت الفعلي، يمكنك استخدامها
تطبيقات مثل دردشة الفيديو أو الألعاب التي تستجيب لتعبيرات اللاعب.
إذا كنت من مطوّري برامج Flutter، قد تهمّك
FlutterFire،
والذي يتضمّن مكوّنًا إضافيًا لواجهات برمجة تطبيقات ML Vision في Firebase.
الإمكانات الرئيسية
التعرّف على ملامح الوجه وتحديد مكانها
احصل على إحداثيات العين والأذنين والخدين والأنف والفم
تم التعرّف على وجه.
معرفة تفاصيل ملامح الوجه
يمكنك الحصول على مخططات للوجوه المرصودة والعينين والحواجب والشفاه
أنف
التعرّف على تعابير الوجه
حدد ما إذا كان الشخص يبتسم أو أغمض عينيه.
تتبُّع الوجوه في إطارات الفيديو
يمكنك الحصول على معرّف لكل وجه يتم التعرّف عليه.
ويكون هذا المعرّف متّسقًا في كل عمليات الاستدعاء، وبالتالي يمكنك مثلاً
معالجة الصور على شخص معين في بث الفيديو.
معالجة إطارات الفيديو في الوقت الفعلي
يتم تنفيذ ميزة التعرّف على الوجه على الجهاز، وهي سريعة بما يكفي لاستخدامها.
في تطبيقات الوقت الفعلي، مثل معالجة الفيديو.
عند تفعيل ميزة "التعرّف على الوجه"، ستظهر لك أيضًا قائمة بالنقاط.
لكل ميزة من ملامح الوجه التي تم اكتشافها. تمثل هذه النقاط شكل
الميزة. توضح الصورة التالية كيفية تعيين هذه النقاط لأحد الوجوه
(النقر على الصورة لتكبيرها):
تاريخ التعديل الأخير: 2025-09-06 (حسب التوقيت العالمي المتفَّق عليه)
[[["يسهُل فهم المحتوى.","easyToUnderstand","thumb-up"],["ساعَدني المحتوى في حلّ مشكلتي.","solvedMyProblem","thumb-up"],["غير ذلك","otherUp","thumb-up"]],[["لا يحتوي على المعلومات التي أحتاج إليها.","missingTheInformationINeed","thumb-down"],["الخطوات معقدة للغاية / كثيرة جدًا.","tooComplicatedTooManySteps","thumb-down"],["المحتوى قديم.","outOfDate","thumb-down"],["ثمة مشكلة في الترجمة.","translationIssue","thumb-down"],["مشكلة في العيّنات / التعليمات البرمجية","samplesCodeIssue","thumb-down"],["غير ذلك","otherDown","thumb-down"]],["تاريخ التعديل الأخير: 2025-09-06 (حسب التوقيت العالمي المتفَّق عليه)"],[],[],null,["Face Detection \nplat_ios plat_android \n\nWith ML Kit's face detection API, you can detect faces in an image, identify\nkey facial features, and get the contours of detected faces.\n\nWith face detection, you can get the information you need to perform tasks like\nembellishing selfies and portraits, or generating avatars from a user's photo.\nBecause ML Kit can perform face detection in real time, you can use it in\napplications like video chat or games that respond to the player's expressions.\n\n[iOS](/docs/ml-kit/ios/detect-faces)\n[Android](/docs/ml-kit/android/detect-faces)\n\nIf you're a Flutter developer, you might be interested in\n[FlutterFire](https://github.com/FirebaseExtended/flutterfire/tree/master/packages/firebase_ml_vision),\nwhich includes a plugin for Firebase's ML Vision APIs.\n| This is a beta release of ML Kit for Firebase. This API might be changed in backward-incompatible ways and is not subject to any SLA or deprecation policy.\n\nKey capabilities\n\n|--------------------------------------|-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| Recognize and locate facial features | Get the coordinates of the eyes, ears, cheeks, nose, and mouth of every face detected. |\n| Get the contours of facial features | Get the contours of detected faces and their eyes, eyebrows, lips, and nose. |\n| Recognize facial expressions | Determine whether a person is smiling or has their eyes closed. |\n| Track faces across video frames | Get an identifier for each individual person's face that is detected. This identifier is consistent across invocations, so you can, for example, perform image manipulation on a particular person in a video stream. |\n| Process video frames in real time | Face detection is performed on the device, and is fast enough to be used in real-time applications, such as video manipulation. |\n\nExample results\n\nExample 1\n\nFor each face detected:\n\n| Face 1 of 3 ||\n|---------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| **Bounding polygon** | (884.880004882812, 149.546676635742), (1030.77197265625, 149.546676635742), (1030.77197265625, 329.660278320312), (884.880004882812, 329.660278320312) |\n| **Angles of rotation** | Y: -14.054030418395996, Z: -55.007488250732422 |\n| **Tracking ID** | 2 |\n| **Facial landmarks** | |---------------------|--------------------------------------| | **Left eye** | (945.869323730469, 211.867126464844) | | **Right eye** | (971.579467773438, 247.257247924805) | | **Bottom of mouth** | (907.756591796875, 259.714477539062) | ... etc. |\n| **Feature probabilities** | |--------------------|---------------------| | **Smiling** | 0.88979166746139526 | | **Left eye open** | 0.98635888937860727 | | **Right eye open** | 0.99258323386311531 | |\n\nExample 2 (face contour detection)\n\nWhen you have face contour detection enabled, you also get a list of points\nfor each facial feature that was detected. These points represent the shape of\nthe feature. The following image illustrates how these points map to a face\n(click the image to enlarge):\n\n[](/static/docs/ml-kit/images/examples/face_contours.svg)\n\n| Facial feature contours ||\n|----------------------|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| **Nose bridge** | (505.149811, 221.201797), (506.987122, 313.285919) |\n| **Left eye** | (404.642029, 232.854431), (408.527283, 231.366623), (413.565796, 229.427856), (421.378296, 226.967682), (432.598755, 225.434143), (442.953064, 226.089508), (453.899811, 228.594818), (461.516418, 232.650467), (465.069580, 235.600845), (462.170410, 236.316147), (456.233643, 236.891602), (446.363922, 237.966888), (435.698914, 238.149323), (424.320740, 237.235168), (416.037720, 236.012115), (409.983459, 234.870300) |\n| **Top of upper lip** | (421.662048, 354.520813), (428.103882, 349.694061), (440.847595, 348.048737), (456.549988, 346.295532), (480.526489, 346.089294), (503.375702, 349.470459), (525.624634, 347.352783), (547.371155, 349.091980), (560.082031, 351.693268), (570.226685, 354.210175), (575.305420, 359.257751) |\n| (etc.) | |"]]