এই পৃষ্ঠাটি হাইব্রিড অভিজ্ঞতার জন্য নিম্নলিখিত কনফিগারেশন বিকল্পগুলি বর্ণনা করে:
অন-ডিভাইস নাকি ইন-ক্লাউড ইনফারেন্স ব্যবহার করা হয়েছে তা নির্ধারণ করুন।
প্রতিক্রিয়া নিয়ন্ত্রণ করতে মডেল কনফিগারেশন ব্যবহার করুন (যেমন তাপমাত্রা)।
হাইব্রিড অভিজ্ঞতা তৈরির জন্য শুরু করার নির্দেশিকাটি আপনি সম্পূর্ণ করেছেন কিনা তা নিশ্চিত করুন।
একটি অনুমান মোড সেট করুন
শুরু করার নির্দেশিকার উদাহরণগুলিতে PREFER_ON_DEVICE মোড ব্যবহার করা হয়েছে, কিন্তু এটি চারটি উপলব্ধ অনুমান মোডের মধ্যে একটি মাত্র।
এখানে উপলব্ধ অনুমান মোডগুলি রয়েছে:
PREFER_ON_DEVICE: যদি অন-ডিভাইস মডেলটি উপলব্ধ থাকে এবং অনুরোধের ধরণ সমর্থন করে তবে তা ব্যবহার করার চেষ্টা করুন। অন্যথায়, ডিভাইসে একটি ত্রুটি লগ করুন এবং তারপরে স্বয়ংক্রিয়ভাবে ক্লাউড-হোস্টেড মডেলে ফিরে যান ।Kotlin
val config = OnDeviceConfig(mode = InferenceMode.PREFER_ON_DEVICE)Java
InferenceMode mode = InferenceMode.PREFER_ON_DEVICE; OnDeviceConfig config = new OnDeviceConfig(mode);ONLY_ON_DEVICE: যদি অন-ডিভাইস মডেলটি উপলব্ধ থাকে এবং অনুরোধের ধরণ সমর্থন করে তবে তা ব্যবহার করার চেষ্টা করুন। অন্যথায়, একটি ব্যতিক্রম দিন ।Kotlin
val config = OnDeviceConfig(mode = InferenceMode.ONLY_ON_DEVICE)Java
InferenceMode mode = InferenceMode.ONLY_ON_DEVICE; OnDeviceConfig config = new OnDeviceConfig(mode);PREFER_IN_CLOUD: ডিভাইসটি অনলাইনে থাকলে এবং মডেলটি উপলব্ধ থাকলে ক্লাউড-হোস্টেড মডেলটি ব্যবহার করার চেষ্টা করুন। ডিভাইসটি অফলাইনে থাকলে, অন-ডিভাইস মডেলে ফিরে যান । অন্যান্য সমস্ত ব্যর্থতার ক্ষেত্রে, একটি ব্যতিক্রম রাখুন ।Kotlin
val config = OnDeviceConfig(mode = InferenceMode.PREFER_IN_CLOUD)Java
InferenceMode mode = InferenceMode.PREFER_IN_CLOUD; OnDeviceConfig config = new OnDeviceConfig(mode);ONLY_IN_CLOUD: ডিভাইসটি অনলাইনে থাকলে এবং মডেলটি উপলব্ধ থাকলে ক্লাউড-হোস্টেড মডেলটি ব্যবহার করার চেষ্টা করুন। অন্যথায়, একটি ব্যতিক্রম দিন ।Kotlin
val config = OnDeviceConfig(mode = InferenceMode.ONLY_IN_CLOUD)Java
InferenceMode mode = InferenceMode.ONLY_IN_CLOUD; OnDeviceConfig config = new OnDeviceConfig(mode);
অন-ডিভাইস নাকি ইন-ক্লাউড ইনফারেন্স ব্যবহার করা হয়েছে তা নির্ধারণ করুন
যদি আপনি PREFER_ON_DEVICE অথবা PREFER_IN_CLOUD ইনফারেন্স মোড ব্যবহার করেন, তাহলে প্রদত্ত অনুরোধের জন্য কোন মোড ব্যবহার করা হয়েছে তা জানা সহায়ক হতে পারে। এই তথ্য প্রতিটি প্রতিক্রিয়ার inferenceSource সম্পত্তি দ্বারা সরবরাহ করা হয়।
যখন আপনি এই বৈশিষ্ট্যটি অ্যাক্সেস করবেন, তখন ফেরত আসা মানটি হয় ON_DEVICE অথবা IN_CLOUD ।
Kotlin
// ...
print("You used: ${result.response.inferenceSource}")
print(result.response.text)
Java
// ...
System.out.println("You used: " + result.getResponse().getInferenceSource());
System.out.println(result.getResponse().getText());
ব্যবহার করার জন্য একটি ক্লাউড-হোস্টেড মডেল নির্দিষ্ট করুন
এই পৃষ্ঠায় প্রোভাইডার-নির্দিষ্ট কন্টেন্ট এবং কোড দেখতে আপনার জেমিনি API প্রোভাইডারে ক্লিক করুন। |
যদি আপনার প্রাথমিক বা ফলব্যাক অনুমানটি একটি ক্লাউড-হোস্টেড মডেল দ্বারা সম্পাদিত হতে পারে, তাহলে আপনাকে generativeModel ইনস্ট্যান্স তৈরি করার সময় ব্যবহার করার জন্য একটি ক্লাউড মডেল স্পষ্টভাবে নির্দিষ্ট করতে হবে।
Kotlin
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
.generativeModel(
modelName = "MODEL_NAME",
onDeviceConfig = OnDeviceConfig(mode = InferenceMode.PREFER_ON_DEVICE)
)
Java
GenerativeModel ai = FirebaseAI.getInstance(GenerativeBackend.googleAI())
.generativeModel(
"MODEL_NAME",
new OnDeviceConfig(InferenceMode.PREFER_ON_DEVICE)
);
GenerativeModelFutures model = GenerativeModelFutures.from(ai);
সমস্ত সমর্থিত জেমিনি মডেলের মডেল নাম খুঁজুন।
প্রতিক্রিয়া নিয়ন্ত্রণ করতে মডেল কনফিগারেশন ব্যবহার করুন
এই পৃষ্ঠায় প্রোভাইডার-নির্দিষ্ট কন্টেন্ট এবং কোড দেখতে আপনার জেমিনি API প্রোভাইডারে ক্লিক করুন। |
একটি মডেলের কাছে প্রতিটি অনুরোধে, আপনি একটি মডেল কনফিগারেশন পাঠাতে পারেন যাতে মডেলটি কীভাবে প্রতিক্রিয়া তৈরি করে তা নিয়ন্ত্রণ করা যায়। ক্লাউড-হোস্টেড মডেল এবং অন-ডিভাইস মডেলগুলি বিভিন্ন কনফিগারেশন বিকল্প ( ক্লাউড বনাম অন-ডিভাইস প্যারামিটার) অফার করে।
ক্লাউড-হোস্টেড মডেলের জন্য, তাদের কনফিগারেশন সরাসরি মডেলের কনফিগারেশনে সেট করুন। তবে, অন-ডিভাইস মডেলের জন্য, তাদের কনফিগারেশন একটি onDeviceConfig এর মধ্যে সেট করুন।
কনফিগারেশনটি ইনস্ট্যান্সের জীবনকাল ধরে রক্ষণাবেক্ষণ করা হয়। যদি আপনি একটি ভিন্ন কনফিগারেশন ব্যবহার করতে চান, তাহলে সেই কনফিগারেশন দিয়ে একটি নতুন GenerativeModel ইনস্ট্যান্স তৈরি করুন।
PREFER_ON_DEVICE ইনফারেন্স মোড সেট করা থাকলে ব্যবহার করা যেতে পারে এমন ক্লাউড-হোস্টেড এবং অন-ডিভাইস মডেলগুলির জন্য কনফিগারেশন সেট করার একটি উদাহরণ এখানে দেওয়া হল:
Kotlin
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
.generativeModel("MODEL_NAME",
// Config for cloud-hosted model
generationConfig = generationConfig {
temperature = 0.8f,
topK = 10
},
// Config for on-device model
onDeviceConfig = onDeviceConfig {
mode = InferenceMode.PREFER_ON_DEVICE,
temperature = 0.8f,
topK = 5
})
Java
// Config for cloud-hosted model
GenerationConfig generationConfig = new GenerationConfig.Builder()
.setTemperature(0.8f)
.setTopK(10)
.build();
// Config for on-device model
OnDeviceConfig onDeviceConfig = new OnDeviceConfig.Builder()
.setMode(InferenceMode.PREFER_ON_DEVICE)
.setTemperature(0.8f)
.setTopK(5)
.build();
GenerativeModel ai = FirebaseAI.getInstance(GenerativeBackend.googleAI())
.generativeModel(
"MODEL_NAME",
generationConfig,
onDeviceConfig
);
GenerativeModelFutures model = GenerativeModelFutures.from(ai);