این صفحه گزینههای پیکربندی زیر را شرح میدهد:
همچنین میتوانید خروجی ساختاریافته، شامل JSON و enums، تولید کنید .
قبل از اینکه شروع کنی
مطمئن شوید که راهنمای شروع به کار برای ساخت تجربیات ترکیبی را تکمیل کردهاید.
تنظیم حالت استنتاج
مثالهای موجود در راهنمای شروع به کار از حالت PREFER_ON_DEVICE استفاده میکنند، اما این تنها یکی از چهار حالت استنتاج موجود است.
PREFER_ON_DEVICE: در صورت موجود بودن، از مدل روی دستگاه استفاده کنید؛ در غیر این صورت، به مدل میزبانی ابری برگردید .const model = getGenerativeModel(ai, { mode: InferenceMode.PREFER_ON_DEVICE });ONLY_ON_DEVICE: در صورت موجود بودن، از مدل روی دستگاه استفاده میکند؛ در غیر این صورت، یک استثنا ایجاد میکند .const model = getGenerativeModel(ai, { mode: InferenceMode.ONLY_ON_DEVICE });PREFER_IN_CLOUD: در صورت موجود بودن، از مدل میزبانی ابری استفاده کنید؛ در غیر این صورت، به مدل روی دستگاه برگردید .const model = getGenerativeModel(ai, { mode: InferenceMode.PREFER_IN_CLOUD });ONLY_IN_CLOUD: در صورت موجود بودن، از مدل میزبانی ابری استفاده کنید؛ در غیر این صورت، یک استثنا ایجاد کنید .const model = getGenerativeModel(ai, { mode: InferenceMode.ONLY_IN_CLOUD });
تعیین اینکه آیا از استنتاج درون دستگاهی یا درون ابری استفاده شده است
اگر از حالتهای استنتاج PREFER_ON_DEVICE یا PREFER_IN_CLOUD استفاده میکنید، دانستن اینکه کدام حالت برای درخواستهای داده شده استفاده شده است، میتواند مفید باشد. این اطلاعات توسط ویژگی inferenceSource هر پاسخ ارائه میشود (از JS SDK v12.5.0 به بعد در دسترس است).
وقتی به این ویژگی دسترسی پیدا میکنید، مقدار برگشتی یا ON_DEVICE یا IN_CLOUD خواهد بود.
// ...
console.log('You used: ' + result.response.inferenceSource);
console.log(result.response.text());
مدل پشتیبان پیشفرض را نادیده بگیرید
مدل پیشفرض میزبانی ابری به صورت زیر است:gemini-2.5-flash-lite
این مدل، مدل پشتیبانِ مبتنی بر ابر است وقتی که از حالت PREFER_ON_DEVICE استفاده میکنید. همچنین مدل پیشفرض است وقتی که از حالت ONLY_IN_CLOUD یا حالت PREFER_IN_CLOUD استفاده میکنید.
شما میتوانید از گزینه پیکربندی inCloudParams برای تعیین یک مدل جایگزین پیشفرض میزبانی ابری استفاده کنید.
const model = getGenerativeModel(ai, {
mode: InferenceMode.INFERENCE_MODE,
inCloudParams: {
model: "GEMINI_MODEL_NAME"
}
});
نام مدلها را برای همه مدلهای پشتیبانیشده Gemini پیدا کنید.
استفاده از پیکربندی مدل برای کنترل پاسخها
در هر درخواست به یک مدل، میتوانید پیکربندی مدل را ارسال کنید تا نحوه تولید پاسخ توسط مدل را کنترل کنید. مدلهای ابری و مدلهای روی دستگاه، گزینههای پیکربندی متفاوتی ارائه میدهند.
این پیکربندی در طول عمر نمونه حفظ میشود. اگر میخواهید از پیکربندی متفاوتی استفاده کنید، یک نمونه GenerativeModel جدید با آن پیکربندی ایجاد کنید.
پیکربندی مدل میزبانی ابری
از گزینه inCloudParams برای پیکربندی یک مدل Gemini میزبانی شده توسط ابر استفاده کنید. درباره پارامترهای موجود اطلاعات کسب کنید.
const model = getGenerativeModel(ai, {
mode: InferenceMode.INFERENCE_MODE,
inCloudParams: {
model: "GEMINI_MODEL_NAME"
temperature: 0.8,
topK: 10
}
});
پیکربندی مدل روی دستگاه
توجه داشته باشید که استنتاج با استفاده از مدل روی دستگاه، از Prompt API کروم استفاده میکند.
از گزینه onDeviceParams برای پیکربندی یک مدل روی دستگاه استفاده کنید. درباره پارامترهای موجود اطلاعات کسب کنید.
const model = getGenerativeModel(ai, {
mode: InferenceMode.INFERENCE_MODE,
onDeviceParams: {
createOptions: {
temperature: 0.8,
topK: 8
}
}
});