توضّح هذه الصفحة كيفية استخدام إمكانية التخصيص من Imagen إلى تعديل الصور أو إنشائها استنادًا إلى نمط محدّد باستخدام حِزم تطوير البرامج (SDK) الخاصة بـ Firebase AI Logic.
طريقة العمل: يمكنك تقديم طلب نصي وصورة مرجعية واحدة على الأقل تعرض نمطًا معيّنًا (مثل نقش أو ملمس أو نمط تصميم). يستخدم النموذج هذه المدخلات لإنشاء صورة جديدة استنادًا إلى النمط المحدّد في الصور المرجعية.
على سبيل المثال، يمكنك إنشاء صورة جديدة لمطبخ استنادًا إلى صورة من كتالوج بيع بالتجزئة شائع تقدّمه.
قبل البدء
لا تتوفّر هذه الميزة إلا عند استخدام Vertex AI Gemini API كموفّر لواجهة برمجة التطبيقات. |
إذا لم يسبق لك إجراء ذلك، أكمل دليل بدء الاستخدام الذي يوضّح كيفية إعداد مشروعك على Firebase وربط تطبيقك بـ Firebase وإضافة حزمة تطوير البرامج (SDK) وتهيئة خدمة الخلفية لمزوّد واجهة برمجة التطبيقات الذي اخترته وإنشاء مثيل ImagenModel
.
الطُرز التي تتيح هذه الإمكانية
توفّر Imagen إمكانية تعديل الصور من خلال نموذج capability
:
imagen-3.0-capability-001
يُرجى العِلم أنّه بالنسبة إلى طُرز Imagen، لا يتوفّر الموقع الجغرافي global
.
إرسال طلب تخصيص نمط
يعرض المثال التالي طلبًا لتخصيص النمط يطلب من النموذج إنشاء صورة جديدة بنمط الصورة المرجعية المقدَّمة (في هذا المثال، "ليلة النجوم" التي رسمها فان غوخ).
يمكنك الاطّلاع على نماذج الطلبات لاحقًا في هذه الصفحة للتعرّف على كيفية كتابة الطلبات وكيفية استخدام الصور المرجعية فيها.
Swift
لا تتوافق لغة Swift مع تعديل الصور باستخدام نماذج Imagen. يُرجى التحقّق مجددًا في وقت لاحق من هذا العام.
Kotlin
// Using this SDK to access Imagen models is a Preview release and requires opt-in
@OptIn(PublicPreviewAPI::class)
suspend fun customizeImage() {
// Initialize the Vertex AI Gemini API backend service
// Optionally specify the location to access the model (for example, `us-central1`)
val ai = Firebase.ai(backend = GenerativeBackend.vertexAI(location = "us-central1"))
// Create an `ImagenModel` instance with an Imagen "capability" model
val model = ai.imagenModel("imagen-3.0-capability-001")
// This example assumes 'referenceImage' is a pre-loaded Bitmap.
// In a real app, this might come from the user's device or a URL.
val referenceImage: Bitmap = TODO("Load your reference image Bitmap here")
// Define the style reference using the reference image.
val styleReference = ImagenStyleReference(
image = referenceImage,
referenceID = 1,
description = "Van Gogh style"
)
// Provide a prompt that describes the final image.
// The "[1]" links the prompt to the style reference with ID 1.
val prompt = "A cat flying through outer space, in the Van Gogh style[1]"
// Use the editImage API to perform the style customization.
// Pass the list of references, the prompt, and an editing configuration.
val editedImage = model.editImage(
references = listOf(styleReference),
prompt = prompt,
config = ImagenEditingConfig(
editSteps = 50 // Number of editing steps, a higher value can improve quality
)
)
// Process the result
}
Java
// Initialize the Vertex AI Gemini API backend service
// Optionally specify the location to access the model (for example, `us-central1`)
// Create an `ImagenModel` instance with an Imagen "capability" model
ImagenModel imagenModel = FirebaseAI.getInstance(GenerativeBackend.vertexAI("us-central1"))
.imagenModel(
/* modelName */ "imagen-3.0-capability-001");
ImagenModelFutures model = ImagenModelFutures.from(imagenModel);
// This example assumes 'referenceImage' is a pre-loaded Bitmap.
// In a real app, this might come from the user's device or a URL.
Bitmap referenceImage = null; // TODO("Load your image Bitmap here");
// Define the style reference using the reference image.
ImagenStyleReference subjectReference = new ImagenStyleReference.Builder()
.setImage(referenceImage)
.setReferenceID(1)
.setDescription("Van Gogh style")
.build();
// Provide a prompt that describes the final image.
// The "[1]" links the prompt to the style reference with ID 1.
String prompt = "A cat flying through outer space, in the Van Gogh style[1]";
// Define the editing configuration.
ImagenEditingConfig imagenEditingConfig = new ImagenEditingConfig.Builder()
.setEditSteps(50) // Number of editing steps, a higher value can improve quality
.build();
// Use the editImage API to perform the style customization.
// Pass the list of references, the prompt, and the editing configuration.
Futures.addCallback(model.editImage(Collections.singletonList(styleReference), prompt, imagenEditingConfig), new FutureCallback<ImagenGenerationResponse>() {
@Override
public void onSuccess(ImagenGenerationResponse result) {
if (result.getImages().isEmpty()) {
Log.d("TAG", "No images generated");
}
Bitmap bitmap = result.getImages().get(0).asBitmap();
// Use the bitmap to display the image in your UI
}
@Override
public void onFailure(Throwable t) {
// ...
}
}, Executors.newSingleThreadExecutor());
Web
لا يمكن تعديل الصور باستخدام نماذج Imagen في تطبيقات الويب. يُرجى التحقّق مجددًا في وقت لاحق من هذا العام.
Dart
import 'dart:typed_data';
import 'package:firebase_ai/firebase_ai.dart';
import 'package:firebase_core/firebase_core.dart';
import 'firebase_options.dart';
// Initialize FirebaseApp
await Firebase.initializeApp(
options: DefaultFirebaseOptions.currentPlatform,
);
// Initialize the Vertex AI Gemini API backend service
// Optionally specify a location to access the model (for example, `us-central1`)
final ai = FirebaseAI.vertexAI(location: 'us-central1');
// Create an `ImagenModel` instance with an Imagen "capability" model
final model = ai.imagenModel(model: 'imagen-3.0-capability-001');
// This example assumes 'referenceImage' is a pre-loaded Uint8List.
// In a real app, this might come from the user's device or a URL.
final Uint8List referenceImage = Uint8List(0); // TODO: Load your reference image data here
// Define the style reference using the reference image.
final styleReference = ImagenStyleReference(
image: referenceImage,
referenceId: 1,
description: 'Van Gogh style',
);
// Provide a prompt that describes the final image.
// The "[1]" links the prompt to the style reference with ID 1.
final prompt = "A cat flying through outer space, in the Van Gogh style[1]";
try {
// Use the editImage API to perform the style customization.
// Pass the list of references, the prompt, and an editing configuration.
final response = await model.editImage(
[styleReference],
prompt,
config: ImagenEditingConfig(
editSteps: 50, // Number of editing steps, a higher value can improve quality
),
);
// Process the result.
if (response.images.isNotEmpty) {
final editedImage = response.images.first.bytes;
// Use the editedImage (a Uint8List) to display the image, save it, etc.
print('Image successfully generated!');
} else {
// Handle the case where no images were generated.
print('Error: No images were generated.');
}
} catch (e) {
// Handle any potential errors during the API call.
print('An error occurred: $e');
}
Unity
لا تتوافق نماذج Imagen مع Unity عند تعديل الصور. يُرجى التحقّق مجددًا في وقت لاحق من هذا العام.
نماذج الطلبات
في الطلب، يمكنك تقديم صور مرجعية (بحد أقصى 4 صور) من خلال تحديد ImagenStyleReference
يمكنك فيه تحديد معرّف مرجعي لصورة (ويمكنك أيضًا تقديم وصف للنمط). يُرجى العِلم أنّه يمكن أن تتشارك صور متعددة رقم التعريف المرجعي نفسه (على سبيل المثال، صور متعددة للنمط نفسه).
بعد ذلك، عند كتابة الطلب، يمكنك الرجوع إلى أرقام التعريف هذه. على سبيل المثال، يمكنك استخدام
[1]
في الطلب للإشارة إلى الصور التي تحمل رقم التعريف المرجعي 1
. إذا قدّمت وصفًا للموضوع، يمكنك أيضًا تضمينه في الطلب لتسهيل قراءته.
يقدّم الجدول التالي نماذج طلبات يمكن أن تكون نقطة بداية لكتابة طلبات مخصّصة استنادًا إلى الأسلوب.
حالة الاستخدام | الصور المرجعية | نموذج الطلب | مثال |
---|---|---|---|
نمط العنصر | صورة العنصر الأساسي (من 1 إلى 4) | أنشئ صورة بأسلوب STYLE_DESCRIPTION [1] استنادًا إلى الوصف التالي: IMAGE_DESCRIPTION. | أنشئ صورة بأسلوب neon sign style [1] استنادًا إلى الوصف التالي: a sign saying have a great day. |
تطبيق أسلوب على صورة شخص بدون إدخال شبكة الوجه | صورة العنصر الأساسي (من 1 إلى 4) | أنشئ صورة عن SUBJECT_DESCRIPTION [1] لتتطابق مع الوصف: صورة شخصية لـ SUBJECT_DESCRIPTION [1] ${PROMPT} | أنشئ صورة عن a woman with short hair[1] تتطابق مع الوصف: صورة بورتريه لـ a woman with short hair[1] بنمط رسم كرتوني ثلاثي الأبعاد مع خلفية مموّهة. شخصية لطيفة وجميلة، بوجه مبتسم، تنظر إلى الكاميرا، بألوان الباستيل ... |
تحديد نمط صورة شخص باستخدام بيانات شبكة الوجه |
صورة الموضوع (من 1 إلى 3) صورة التحكّم في Facemesh (1) |
أنشئ صورة عن SUBJECT_DESCRIPTION [1] بوضعية CONTROL_IMAGE [2] لتتطابق مع الوصف: صورة شخصية SUBJECT_DESCRIPTION [1] ${PROMPT} | أنشئ صورة عن a woman with short hair [1] في وضعية control image [2] لتتطابق مع الوصف: صورة بورتريه لـ a woman with short hair [1] بأسلوب رسوم متحركة ثلاثية الأبعاد مع خلفية مموّهة. شخصية لطيفة وجميلة، بوجه مبتسم، تنظر إلى الكاميرا، بألوان الباستيل ... |
أفضل الممارسات والقيود
حالات الاستخدام
تتيح ميزة التخصيص إدخال طلبات بأي أسلوب، ما قد يعطي انطباعًا بأنّ النموذج يمكنه تنفيذ مهام أكثر من تلك التي تم تدريبه عليها. توضّح الأقسام التالية حالات الاستخدام المقصودة لميزة التخصيص، بالإضافة إلى أمثلة غير شاملة على حالات الاستخدام غير المقصودة.
ننصحك باستخدام هذه الإمكانية لحالات الاستخدام المقصودة، لأنّنا درّبنا النموذج على حالات الاستخدام هذه ونتوقّع أن يحقّق نتائج جيدة فيها. في المقابل، إذا دفعت النموذج إلى تنفيذ مهام خارج نطاق حالات الاستخدام المقصودة، من المتوقّع أن تحصل على نتائج غير مرضية.
حالات الاستخدام المقصودة
في ما يلي حالات الاستخدام المقصودة للتخصيص استنادًا إلى نمط:
إنشاء صورة من نص مُدخَل يتبع النمط المحدّد الذي توفّره صورة مرجعية
تعديل صورة شخص
تعديل صورة شخص مع الحفاظ على تعابير وجهه
أمثلة على حالات الاستخدام غير المقصودة
في ما يلي قائمة غير شاملة بحالات الاستخدام غير المقصودة للتخصيص استنادًا إلى نمط. لم يتم تدريب النموذج على حالات الاستخدام هذه، ومن المرجّح أن يعرض نتائج غير دقيقة.
إنشاء صورة من نص وباستخدام صورة مرجعية، وذلك بهدف التحكّم بشكل ما في التركيبة التي يتم إنشاؤها من الصورة المرجعية
أنشئ صورة لشخص من صورة مرجعية تظهر فيها تعابير وجه معيّنة.
وضع شخصَين في مشهد مختلف مع الحفاظ على هويتيهما، وتحديد نمط الصورة الناتجة (مثل لوحة زيتية) باستخدام صورة مرجعية
تطبيق أسلوب فني على صورة حيوان أليف وتحويلها إلى رسم مع الحفاظ على تركيبة الصورة أو تحديدها
ضَع منتجًا، مثل قطعة بسكويت أو أريكة، في مشاهد مختلفة بزوايا مختلفة للمنتج، واتّبِع أسلوب صورة معيّنًا (مثل أسلوب واقعي جدًا بألوان أو أساليب إضاءة أو صور متحركة معيّنة).