หน้านี้อธิบายตัวเลือกการกำหนดค่าต่อไปนี้สำหรับประสบการณ์แบบไฮบริด
ตรวจสอบว่าคุณได้ทำตาม คู่มือเริ่มต้นใช้งานสำหรับการสร้างประสบการณ์แบบไฮบริดเรียบร้อยแล้ว
ตั้งค่าโหมดการอนุมาน
ตัวอย่างในคู่มือเริ่มต้นใช้งานใช้โหมด PREFER_ON_DEVICE แต่
โหมดนี้เป็นเพียง 1 ใน 4 โหมดการอนุมานที่พร้อมใช้งาน
โหมดการอนุมานที่พร้อมใช้งานมีดังนี้
PREFER_ON_DEVICE: พยายามใช้โมเดลในอุปกรณ์หากพร้อมใช้งานและรองรับคำขอประเภทนั้น หากไม่เป็นเช่นนั้น ให้บันทึกข้อผิดพลาดในอุปกรณ์ แล้ว กลับไปใช้โมเดลที่โฮสต์บนระบบคลาวด์โดยอัตโนมัติKotlin
val config = OnDeviceConfig(mode = InferenceMode.PREFER_ON_DEVICE)Java
InferenceMode mode = InferenceMode.PREFER_ON_DEVICE; OnDeviceConfig config = new OnDeviceConfig(mode);ONLY_ON_DEVICE: พยายามใช้โมเดลในอุปกรณ์หากพร้อมใช้งานและรองรับคำขอประเภทนั้น หากไม่เป็นเช่นนั้น ให้แสดงข้อยกเว้นKotlin
val config = OnDeviceConfig(mode = InferenceMode.ONLY_ON_DEVICE)Java
InferenceMode mode = InferenceMode.ONLY_ON_DEVICE; OnDeviceConfig config = new OnDeviceConfig(mode);PREFER_IN_CLOUD: พยายามใช้โมเดลที่โฮสต์บนระบบคลาวด์หากอุปกรณ์ออนไลน์และโมเดลพร้อมใช้งาน หากอุปกรณ์ออฟไลน์ ให้กลับไปใช้โมเดลในอุปกรณ์ ในกรณีที่เกิดข้อผิดพลาดอื่นๆ ทั้งหมด ให้แสดงข้อยกเว้นKotlin
val config = OnDeviceConfig(mode = InferenceMode.PREFER_IN_CLOUD)Java
InferenceMode mode = InferenceMode.PREFER_IN_CLOUD; OnDeviceConfig config = new OnDeviceConfig(mode);ONLY_IN_CLOUD: พยายามใช้โมเดลที่โฮสต์บนระบบคลาวด์หากอุปกรณ์ออนไลน์และโมเดลพร้อมใช้งาน หากไม่เป็นเช่นนั้น ให้แสดงข้อยกเว้นKotlin
val config = OnDeviceConfig(mode = InferenceMode.ONLY_IN_CLOUD)Java
InferenceMode mode = InferenceMode.ONLY_IN_CLOUD; OnDeviceConfig config = new OnDeviceConfig(mode);
ระบุว่าใช้การอนุมานในอุปกรณ์หรือในระบบคลาวด์
หากโหมดการอนุมานของคุณคือ PREFER_ON_DEVICE หรือ PREFER_IN_CLOUD การทราบว่าใช้โหมดใดสำหรับคำขอที่ระบุอาจเป็นประโยชน์ ข้อมูลนี้มาจากพร็อพเพอร์ตี้ inferenceSource ของการตอบกลับแต่ละรายการ
เมื่อเข้าถึงพร็อพเพอร์ตี้นี้ ค่าที่แสดงจะเป็น ON_DEVICE หรือ IN_CLOUD
Kotlin
// ...
print("You used: ${result.response.inferenceSource}")
print(result.response.text)
Java
// ...
System.out.println("You used: " + result.getResponse().getInferenceSource());
System.out.println(result.getResponse().getText());
ระบุโมเดลที่จะใช้
|
คลิกผู้ให้บริการ Gemini API เพื่อดูเนื้อหาของผู้ให้บริการรายนั้นๆ และโค้ดในหน้านี้ |
คุณสามารถระบุโมเดลที่จะใช้เมื่อสร้างอินสแตนซ์ generativeModel
(Kotlin |
Java)
ระบุโมเดลที่โฮสต์บนระบบคลาวด์:
หากโหมดการอนุมานของคุณคือ
PREFER_ON_DEVICE,PREFER_IN_CLOUDหรือONLY_IN_CLOUDคุณ ต้อง ระบุโมเดลที่โฮสต์บนระบบคลาวด์ที่จะใช้โดยชัดแจ้ง SDK ไม่มี โมเดลที่โฮสต์บนระบบคลาวด์เริ่มต้นดูชื่อโมเดลสำหรับโมเดลที่โฮสต์บนระบบคลาวด์ทั้งหมด ที่รองรับGemini
ระบุโมเดลในอุปกรณ์:
หากโหมดการอนุมานของคุณคือ
PREFER_ON_DEVICE,PREFER_IN_CLOUDหรือONLY_ON_DEVICEคุณสามารถระบุ "หมวดหมู่" ของโมเดลในอุปกรณ์ที่จะใช้ในonDeviceConfigโดยไม่บังคับ หมวดหมู่เป็นการผสมผสานระหว่างระยะการเปิดตัวและลักษณะการทำงานค่าหมวดหมู่ที่รองรับแสดงอยู่ด้านล่าง
AICore จะเลือกโมเดลในอุปกรณ์โดยอัตโนมัติซึ่งตรงตามเงื่อนไขของหมวดหมู่ที่ระบุและอุปกรณ์รองรับ ตัวอย่างเช่น หากคุณระบุPREVIEWและอุปกรณ์เป็น Pixel 9 ระบบก็น่าจะเลือก Gemini Nano 4 Full [เวอร์ชันตัวอย่าง] (nano-v4-full) โดยอัตโนมัติSTABLE: โมเดลในอุปกรณ์ เวอร์ชันเสถียรล่าสุดผ่านการทดสอบอย่างเต็มรูปแบบและพร้อมใช้งานในอุปกรณ์ของผู้บริโภค
เช่น Gemini Nano 3 (
nano-v3) หรือ Gemini Nano 2 (nano-v2)การตั้งค่าเริ่มต้นสำหรับโมเดลในอุปกรณ์หากไม่ได้ระบุ
OnDeviceModelOption
PREVIEW: โมเดลในอุปกรณ์ เวอร์ชันตัวอย่างล่าสุดที่มีความสามารถด้านประสิทธิภาพการทำงาน เต็มรูปแบบออกแบบมาเพื่อความสามารถในการให้เหตุผลที่สูงขึ้นและงานที่ซับซ้อน
เช่น Gemini Nano 4 Full [เวอร์ชันตัวอย่าง] (
nano-v4-fullซึ่งอิงตาม Gemma 4 E4B)
PREVIEW_FAST: โมเดลในอุปกรณ์ เวอร์ชันตัวอย่างล่าสุดที่ รวดเร็วเพิ่มประสิทธิภาพเพื่อความเร็วสูงสุดและความหน่วงต่ำ
เช่น Gemini Nano 4 Fast [เวอร์ชันตัวอย่าง] (
nano-v4-fastซึ่งอิงตาม Gemma 4 E2B)
Kotlin
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
.generativeModel(
// Specify a cloud-hosted model.
// Required for `PREFER_ON_DEVICE`, `PREFER_IN_CLOUD`, and `ONLY_IN_CLOUD` inference modes.
modelName = "CLOUD_HOSTED_MODEL_NAME",
onDeviceConfig = OnDeviceConfig(
mode = InferenceMode.INFERENCE_MODE,
// (Optional) Specify an on-device model category.
// AICore will auto-select an on-device model based on this category.
// If not specified, AICore will auto-select the default stable on-device model.
modelOption = OnDeviceModelOption.ON-DEVICE_MODEL_CATEGORY)
)
Java
GenerativeModel ai = FirebaseAI.getInstance(GenerativeBackend.googleAI())
.generativeModel(
// Specify a cloud-hosted model.
// Required for `PREFER_ON_DEVICE`, `PREFER_IN_CLOUD`, and `ONLY_IN_CLOUD` inference modes.
"CLOUD_HOSTED_MODEL_NAME",
/* config = */ null,
/* safetySettings = */ null,
/* tools = */ null,
/* toolConfig = */ null,
/* systemInstruction = */ null,
/* requestOptions = */ new RequestOptions(),
new OnDeviceConfig(
/* mode = */ InferenceMode.INFERENCE_MODE,
/* maxOutputTokens = */ null,
/* temperature = */ null,
/* topK = */ null,
/* seed = */ null,
/* candidateCount = */ 1,
// (Optional) Specify an on-device model category.
// AICore will auto-select an on-device model based on this category.
// If not specified, AICore will auto-select the default stable on-device model.
/* modelOption = */ OnDeviceModelOption.ON-DEVICE_MODEL_CATEGORY)
);
GenerativeModelFutures model = GenerativeModelFutures.from(ai);
ใช้การกำหนดค่าโมเดลเพื่อควบคุมการตอบกลับ
|
คลิกผู้ให้บริการ Gemini API เพื่อดูเนื้อหาของผู้ให้บริการรายนั้นๆ และโค้ดในหน้านี้ |
ในคำขอแต่ละรายการที่ส่งไปยังโมเดล คุณสามารถส่งการกำหนดค่าโมเดลไปพร้อมกันเพื่อควบคุมวิธีที่โมเดลสร้างการตอบกลับ โมเดลที่โฮสต์บนระบบคลาวด์และโมเดลในอุปกรณ์ มีตัวเลือกการกำหนดค่าที่แตกต่างกัน (พารามิเตอร์ในระบบคลาวด์ เทียบกับ พารามิเตอร์ในอุปกรณ์ )
สำหรับโมเดลที่โฮสต์บนระบบคลาวด์ ให้ตั้งค่าการกำหนดค่าโดยตรงในการกำหนดค่าของโมเดล แต่สำหรับโมเดลในอุปกรณ์ ให้ตั้งค่าการกำหนดค่าภายใน
an
onDeviceConfig
ระบบจะเก็บรักษาการกำหนดค่าไว้ตลอดอายุการใช้งานของอินสแตนซ์ หากต้องการใช้การกำหนดค่าอื่น ให้สร้างอินสแตนซ์ GenerativeModel ใหม่ด้วยการกำหนดค่าดังกล่าว
ตัวอย่างต่อไปนี้แสดงการกำหนดค่าสำหรับโมเดลที่โฮสต์บนระบบคลาวด์และโมเดลในอุปกรณ์ที่อาจใช้ได้หากตั้งค่าโหมดการอนุมาน PREFER_ON_DEVICE
Kotlin
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
.generativeModel("MODEL_NAME",
// Config for cloud-hosted model
generationConfig = generationConfig {
temperature = 0.8f,
topK = 10
},
// Config for on-device model
onDeviceConfig = onDeviceConfig {
mode = InferenceMode.PREFER_ON_DEVICE,
temperature = 0.8f,
topK = 5
})
Java
// Config for cloud-hosted model
GenerationConfig generationConfig = new GenerationConfig.Builder()
.setTemperature(0.8f)
.setTopK(10)
.build();
// Config for on-device model
OnDeviceConfig onDeviceConfig = new OnDeviceConfig.Builder()
.setMode(InferenceMode.PREFER_ON_DEVICE)
.setTemperature(0.8f)
.setTopK(5)
.build();
GenerativeModel ai = FirebaseAI.getInstance(GenerativeBackend.googleAI())
.generativeModel(
"MODEL_NAME",
generationConfig,
onDeviceConfig
);
GenerativeModelFutures model = GenerativeModelFutures.from(ai);