Model Gemini 2.5 dapat menggunakan "proses berpikir" internal yang secara signifikan meningkatkan kemampuan penalaran dan perencanaan multi-langkahnya, sehingga sangat efektif untuk tugas-tugas kompleks seperti coding, matematika tingkat lanjut, dan analisis data.
Model pemikiran menawarkan konfigurasi dan opsi berikut:
Anggaran penalaran: Anda dapat mengonfigurasi seberapa banyak "penalaran" yang dapat dilakukan model menggunakan anggaran penalaran. Konfigurasi ini sangat penting jika mengurangi latensi atau biaya menjadi prioritas. Selain itu, tinjau perbandingan kesulitan tugas untuk memutuskan seberapa besar kemampuan berpikir yang dibutuhkan model.
Ringkasan pemikiran: Anda dapat mengaktifkan ringkasan pemikiran untuk disertakan dengan respons yang dihasilkan. Ringkasan ini adalah versi sintetis dari pemikiran mentah model dan memberikan insight tentang proses penalaran internal model.
Tanda tangan pemikiran: SDK Firebase AI Logic secara otomatis menangani tanda tangan pemikiran untuk Anda, yang memastikan bahwa model memiliki akses ke konteks pemikiran dari giliran sebelumnya, khususnya saat menggunakan panggilan fungsi.
Pastikan untuk meninjau praktik terbaik dan panduan perintah untuk menggunakan model pemikiran.
Menggunakan model berpikir
Gunakan model pemikiran seperti Anda menggunakan model Gemini lainnya
(inisialisasi penyedia Gemini API yang Anda pilih, buat instance GenerativeModel
, dll.).
Model ini dapat digunakan untuk tugas pembuatan teks atau kode, seperti
membuat output terstruktur
atau menganalisis input multimodal (seperti
gambar,
video,
audio,
atau
PDF).
Anda bahkan dapat menggunakan model pemikiran saat melakukan streaming output.
Model yang mendukung kemampuan ini
Hanya model Gemini 2.5 yang mendukung kemampuan ini.
gemini-2.5-pro
gemini-2.5-flash
gemini-2.5-flash-lite
Praktik terbaik & panduan perintah untuk menggunakan model berpikir
Sebaiknya uji perintah Anda di Google AI Studio atau Vertex AI Studio tempat Anda dapat melihat seluruh proses pemikiran. Anda dapat mengidentifikasi area mana pun yang mungkin membuat model keliru, sehingga Anda dapat menyempurnakan perintah untuk mendapatkan respons yang lebih konsisten dan akurat.
Mulai dengan perintah umum yang menjelaskan hasil yang diinginkan, dan amati pemikiran awal model tentang cara menentukan responsnya. Jika respons tidak sesuai harapan, bantu model menghasilkan respons yang lebih baik dengan menggunakan salah satu teknik perintah berikut:
- Memberikan petunjuk langkah demi langkah
- Berikan beberapa contoh pasangan input-output
- Memberikan panduan tentang cara menyusun kata-kata dan memformat output dan respons
- Memberikan langkah-langkah verifikasi tertentu
Selain perintah, pertimbangkan untuk menggunakan rekomendasi berikut:
Tetapkan petunjuk sistem, yang seperti "preamble" yang Anda tambahkan sebelum model diekspos ke petunjuk lebih lanjut dari perintah atau pengguna akhir. Dengan begitu, Anda dapat mengarahkan perilaku model berdasarkan kebutuhan dan kasus penggunaan spesifik Anda.
Tetapkan anggaran penalaran untuk mengonfigurasi jumlah penalaran yang dapat dilakukan model. Jika Anda menetapkan anggaran yang rendah, model tidak akan "terlalu memikirkan" responsnya. Jika Anda menetapkan anggaran yang tinggi, model dapat berpikir lebih banyak jika diperlukan. Menetapkan anggaran penalaran juga memesan lebih banyak batas output token total untuk respons sebenarnya.
Aktifkan pemantauan AI di Firebase console untuk memantau jumlah token berpikir dan latensi permintaan Anda yang mengaktifkan fitur berpikir. Jika Anda mengaktifkan ringkasan pemikiran, ringkasan tersebut akan ditampilkan di konsol tempat Anda dapat memeriksa alasan mendetail model untuk membantu Anda men-debug dan menyempurnakan perintah.
Mengontrol anggaran penalaran
Untuk mengontrol seberapa banyak penalaran yang dapat dilakukan model untuk menghasilkan respons, Anda dapat menentukan jumlah token anggaran penalaran yang diizinkan untuk digunakan.
Anda dapat menetapkan anggaran penalaran secara manual dalam situasi saat Anda mungkin memerlukan lebih banyak atau lebih sedikit token daripada anggaran penalaran default. Temukan panduan yang lebih mendetail tentang kompleksitas tugas dan anggaran yang disarankan di bagian ini. Berikut beberapa panduan tingkat tinggi:
- Tetapkan anggaran penalaran yang rendah jika latensi penting atau untuk tugas yang kurang kompleks
- Tetapkan anggaran penalaran yang tinggi untuk tugas yang lebih kompleks
Menetapkan anggaran penalaran
Klik penyedia Gemini API untuk melihat konten dan kode khusus penyedia di halaman ini. |
Tetapkan anggaran pemikiran dalam GenerationConfig
sebagai bagian dari pembuatan instance
GenerativeModel
. Konfigurasi dipertahankan selama masa aktif
instance. Jika Anda ingin menggunakan anggaran pemikiran yang berbeda untuk permintaan yang berbeda, buat instance GenerativeModel
yang dikonfigurasi dengan setiap anggaran.
Pelajari nilai anggaran pemikiran yang didukung di bagian ini.
Swift
Tetapkan anggaran pemikiran di
GenerationConfig
sebagai bagian dari pembuatan instance GenerativeModel
.
// ...
// Set the thinking configuration
// Use a thinking budget value appropriate for your model (example value shown here)
let generationConfig = GenerationConfig(
thinkingConfig: ThinkingConfig(thinkingBudget: 1024)
)
// Specify the config as part of creating the `GenerativeModel` instance
let model = FirebaseAI.firebaseAI(backend: .googleAI()).generativeModel(
modelName: "GEMINI_MODEL_NAME",
generationConfig: generationConfig
)
// ...
Kotlin
Tetapkan nilai parameter di
GenerationConfig
sebagai bagian dari pembuatan instance GenerativeModel
.
// ...
// Set the thinking configuration
// Use a thinking budget value appropriate for your model (example value shown here)
val generationConfig = generationConfig {
thinkingConfig = thinkingConfig {
thinkingBudget = 1024
}
}
// Specify the config as part of creating the `GenerativeModel` instance
val model = Firebase.ai(backend = GenerativeBackend.googleAI()).generativeModel(
modelName = "GEMINI_MODEL_NAME",
generationConfig,
)
// ...
Java
Tetapkan nilai parameter di
GenerationConfig
sebagai bagian dari pembuatan instance GenerativeModel
.
// ...
// Set the thinking configuration
// Use a thinking budget value appropriate for your model (example value shown here)
ThinkingConfig thinkingConfig = new ThinkingConfig.Builder()
.setThinkingBudget(1024)
.build();
GenerationConfig generationConfig = GenerationConfig.builder()
.setThinkingConfig(thinkingConfig)
.build();
// Specify the config as part of creating the `GenerativeModel` instance
GenerativeModelFutures model = GenerativeModelFutures.from(
FirebaseAI.getInstance(GenerativeBackend.googleAI())
.generativeModel(
/* modelName */ "GEMINI_MODEL_NAME",
/* generationConfig */ generationConfig
);
);
// ...
Web
Tetapkan nilai parameter di
GenerationConfig
sebagai bagian dari pembuatan instance GenerativeModel
.
// ...
const ai = getAI(firebaseApp, { backend: new GoogleAIBackend() });
// Set the thinking configuration
// Use a thinking budget value appropriate for your model (example value shown here)
const generationConfig = {
thinkingConfig: {
thinkingBudget: 1024
}
};
// Specify the config as part of creating the `GenerativeModel` instance
const model = getGenerativeModel(ai, { model: "GEMINI_MODEL_NAME", generationConfig });
// ...
Dart
Tetapkan nilai parameter di
GenerationConfig
sebagai bagian dari pembuatan instance GenerativeModel
.
// ...
// Set the thinking configuration
// Use a thinking budget value appropriate for your model (example value shown here)
final thinkingConfig = ThinkingConfig(thinkingBudget: 1024);
final generationConfig = GenerationConfig(
thinkingConfig: thinkingConfig
);
// Specify the config as part of creating the `GenerativeModel` instance
final model = FirebaseAI.googleAI().generativeModel(
model: 'GEMINI_MODEL_NAME',
config: generationConfig,
);
// ...
Unity
Tetapkan nilai parameter di
GenerationConfig
sebagai bagian dari pembuatan instance GenerativeModel
.
// ...
// Set the thinking configuration
// Use a thinking budget value appropriate for your model (example value shown here)
var thinkingConfig = new ThinkingConfig(thinkingBudget: 1024);
var generationConfig = new GenerationConfig(
thinkingConfig: thinkingConfig
);
// Specify the config as part of creating the `GenerativeModel` instance
var model = FirebaseAI.GetInstance(FirebaseAI.Backend.GoogleAI()).GetGenerativeModel(
modelName: "GEMINI_MODEL_NAME",
generationConfig: generationConfig
);
// ...
Nilai anggaran penalaran yang didukung
Tabel berikut mencantumkan nilai anggaran pemikiran yang dapat Anda tetapkan untuk setiap model dengan mengonfigurasi thinkingBudget
model.
Model | Nilai default | Rentang yang tersedia untuk anggaran penalaran |
Nilai untuk menonaktifkan pemikiran |
Nilai untuk memungkinkan pemikiran dinamis |
|
---|---|---|---|---|---|
Nilai minimum | Nilai maksimum | ||||
Gemini 2.5 Pro | 8,192 |
128 |
32,768 |
tidak dapat dinonaktifkan | -1 |
Gemini 2.5 Flash | 8,192 |
1 |
24,576 |
0 |
-1 |
Gemini 2.5 Flash‑Lite | 0 (pemikiran dinonaktifkan secara default) |
512 |
24,576 |
0 (atau tidak mengonfigurasi anggaran penalaran sama sekali) |
-1 |
Menonaktifkan alur berpikir
Untuk beberapa tugas yang lebih mudah, kemampuan berpikir tidak diperlukan, dan inferensi tradisional sudah cukup. Atau, jika mengurangi latensi adalah prioritas, Anda mungkin tidak ingin model memerlukan waktu lebih lama dari yang diperlukan untuk membuat respons.
Dalam situasi ini, Anda dapat menonaktifkan (atau mematikan) pemikiran:
- Gemini 2.5 Pro: tidak dapat dinonaktifkan
- Gemini 2.5 Flash: tetapkan
thinkingBudget
ke0
token - Gemini 2.5 Flash‑Lite: pemikiran dinonaktifkan secara default
Mendorong pemikiran dinamis
Anda dapat membiarkan model memutuskan kapan dan berapa banyak penalaran yang diperlukan (disebut
penalaran dinamis) dengan menyetel thinkingBudget
ke -1
. Model dapat menggunakan
sebanyak mungkin token yang dianggap sesuai, hingga nilai token maksimumnya
yang tercantum di atas.
Kompleksitas tugas
Tugas mudah — pemikiran dapat dinonaktifkan
Permintaan langsung yang tidak memerlukan penalaran yang kompleks, seperti pengambilan atau klasifikasi fakta. Contoh:- "Di mana DeepMind didirikan?"
- "Apakah email ini meminta rapat atau hanya memberikan informasi?"
Tugas sedang — anggaran default atau beberapa anggaran pemikiran tambahan diperlukan
Permintaan umum yang memerlukan pemrosesan langkah demi langkah atau pemahaman yang lebih mendalam. Contoh:- "Buat analogi antara fotosintesis dan tumbuh dewasa."
- "Bandingkan dan bedakan mobil listrik dan mobil hibrida."
Tugas sulit — anggaran penalaran maksimum mungkin diperlukan
Tantangan yang benar-benar kompleks, seperti menyelesaikan masalah matematika yang rumit atau tugas coding. Jenis tugas ini mengharuskan model menggunakan kemampuan penalaran dan perencanaan sepenuhnya, yang sering kali melibatkan banyak langkah internal sebelum memberikan jawaban. Contoh:- "Pecahkan soal 1 di AIME 2025: Temukan jumlah semua bilangan bulat b > 9 yang memenuhi 17b adalah pembagi 97b."
- "Write Python code for a web application that visualizes real-time stock market data, including user authentication. Buat seefisien mungkin."
Menyertakan ringkasan pemikiran dalam respons
Ringkasan pemikiran adalah versi sintetis dari pemikiran mentah model dan memberikan insight tentang proses penalaran internal model.
Berikut beberapa alasan untuk menyertakan ringkasan pemikiran dalam respons:
Anda dapat menampilkan ringkasan pemikiran di UI aplikasi atau membuatnya dapat diakses oleh pengguna. Ringkasan pemikiran ditampilkan sebagai bagian terpisah dalam respons sehingga Anda memiliki kontrol lebih besar terhadap cara penggunaannya dalam aplikasi Anda.
Jika Anda juga mengaktifkan pemantauan AI di Firebase console, ringkasan pemikiran akan ditampilkan di konsol tempat Anda dapat memeriksa alasan mendetail model untuk membantu Anda men-debug dan menyempurnakan perintah.
Berikut beberapa catatan penting tentang ringkasan pemikiran:
Ringkasan pemikiran tidak dikontrol oleh anggaran pemikiran (anggaran hanya berlaku untuk pemikiran mentah model). Namun, jika pemikiran dinonaktifkan, maka model tidak akan menampilkan ringkasan pemikiran.
Ringkasan pemikiran dianggap sebagai bagian dari respons teks yang dibuat secara reguler oleh model dan dihitung sebagai token output.
Mengaktifkan ringkasan pemikiran
Klik penyedia Gemini API untuk melihat konten dan kode khusus penyedia di halaman ini. |
Anda dapat mengaktifkan ringkasan pemikiran dengan menyetel includeThoughts
ke benar (true) dalam konfigurasi model. Kemudian, Anda dapat mengakses ringkasan dengan memeriksa kolom
thoughtSummary
dari respons.
Berikut adalah contoh yang menunjukkan cara mengaktifkan dan mengambil ringkasan pemikiran dengan respons:
Swift
Aktifkan ringkasan pemikiran di
GenerationConfig
sebagai bagian dari pembuatan instance GenerativeModel
.
// ...
// Set the thinking configuration
// Optionally enable thought summaries in the generated response (default is false)
let generationConfig = GenerationConfig(
thinkingConfig: ThinkingConfig(includeThoughts: true)
)
// Specify the config as part of creating the `GenerativeModel` instance
let model = FirebaseAI.firebaseAI(backend: .googleAI()).generativeModel(
modelName: "GEMINI_MODEL_NAME",
generationConfig: generationConfig
)
let response = try await model.generateContent("solve x^2 + 4x + 4 = 0")
// Handle the response that includes thought summaries
if let thoughtSummary = response.thoughtSummary {
print("Thought Summary: \(thoughtSummary)")
}
guard let text = response.text else {
fatalError("No text in response.")
}
print("Answer: \(text)")
Kotlin
Aktifkan ringkasan pemikiran di
GenerationConfig
sebagai bagian dari pembuatan instance GenerativeModel
.
// ...
// Set the thinking configuration
// Optionally enable thought summaries in the generated response (default is false)
val generationConfig = generationConfig {
thinkingConfig = thinkingConfig {
includeThoughts = true
}
}
// Specify the config as part of creating the `GenerativeModel` instance
val model = Firebase.ai(backend = GenerativeBackend.googleAI()).generativeModel(
modelName = "GEMINI_MODEL_NAME",
generationConfig,
)
val response = model.generateContent("solve x^2 + 4x + 4 = 0")
// Handle the response that includes thought summaries
response.thoughtSummary?.let {
println("Thought Summary: $it")
}
response.text?.let {
println("Answer: $it")
}
Java
Aktifkan ringkasan pemikiran di
GenerationConfig
sebagai bagian dari pembuatan instance GenerativeModel
.
// ...
// Set the thinking configuration
// Optionally enable thought summaries in the generated response (default is false)
ThinkingConfig thinkingConfig = new ThinkingConfig.Builder()
.setIncludeThoughts(true)
.build();
GenerationConfig generationConfig = GenerationConfig.builder()
.setThinkingConfig(thinkingConfig)
.build();
// Specify the config as part of creating the `GenerativeModel` instance
GenerativeModelFutures model = GenerativeModelFutures.from(
FirebaseAI.getInstance(GenerativeBackend.googleAI())
.generativeModel(
/* modelName */ "GEMINI_MODEL_NAME",
/* generationConfig */ generationConfig
);
);
// Handle the response that includes thought summaries
ListenableFuture responseFuture = model.generateContent("solve x^2 + 4x + 4 = 0");
Futures.addCallback(responseFuture, new FutureCallback() {
@Override
public void onSuccess(GenerateContentResponse response) {
if (response.getThoughtSummary() != null) {
System.out.println("Thought Summary: " + response.getThoughtSummary());
}
if (response.getText() != null) {
System.out.println("Answer: " + response.getText());
}
}
@Override
public void onFailure(Throwable t) {
// Handle error
}
}, MoreExecutors.directExecutor());
Web
Aktifkan ringkasan pemikiran di
GenerationConfig
sebagai bagian dari pembuatan instance GenerativeModel
.
// ...
const ai = getAI(firebaseApp, { backend: new GoogleAIBackend() });
// Set the thinking configuration
// Optionally enable thought summaries in the generated response (default is false)
const generationConfig = {
thinkingConfig: {
includeThoughts: true
}
};
// Specify the config as part of creating the `GenerativeModel` instance
const model = getGenerativeModel(ai, { model: "GEMINI_MODEL_NAME", generationConfig });
const result = await model.generateContent("solve x^2 + 4x + 4 = 0");
const response = result.response;
// Handle the response that includes thought summaries
if (response.thoughtSummary()) {
console.log(`Thought Summary: ${response.thoughtSummary()}`);
}
const text = response.text();
console.log(`Answer: ${text}`);
Dart
Aktifkan ringkasan pemikiran di
GenerationConfig
sebagai bagian dari pembuatan instance GenerativeModel
.
// ...
// Set the thinking configuration
// Optionally enable thought summaries in the generated response (default is false)
final thinkingConfig = ThinkingConfig(includeThoughts: true);
final generationConfig = GenerationConfig(
thinkingConfig: thinkingConfig
);
// Specify the config as part of creating the `GenerativeModel` instance
final model = FirebaseAI.googleAI().generativeModel(
model: 'GEMINI_MODEL_NAME',
generationConfig: generationConfig,
);
final response = await model.generateContent('solve x^2 + 4x + 4 = 0');
// Handle the response that includes thought summaries
if (response.thoughtSummary != null) {
print('Thought Summary: ${response.thoughtSummary}');
}
if (response.text != null) {
print('Answer: ${response.text}');
}
Unity
Aktifkan ringkasan pemikiran di
GenerationConfig
sebagai bagian dari pembuatan instance GenerativeModel
.
// ...
// Set the thinking configuration
// Optionally enable thought summaries in the generated response (default is false)
var thinkingConfig = new ThinkingConfig(includeThoughts: true);
var generationConfig = new GenerationConfig(
thinkingConfig: thinkingConfig
);
// Specify the config as part of creating the `GenerativeModel` instance
var model = FirebaseAI.GetInstance(FirebaseAI.Backend.GoogleAI()).GetGenerativeModel(
modelName: "GEMINI_MODEL_NAME",
generationConfig: generationConfig
);
var response = await model.GenerateContentAsync("solve x^2 + 4x + 4 = 0");
// Handle the response that includes thought summaries
if (response.ThoughtSummary != null) {
Debug.Log($"Thought Summary: {response.ThoughtSummary}");
}
if (response.Text != null) {
Debug.Log($"Answer: {response.Text}");
}
Ringkasan alur pemikiran
Anda juga dapat melihat ringkasan pemikiran jika memilih untuk mengalirkan respons menggunakan
generateContentStream
. Tindakan ini akan menampilkan ringkasan inkremental yang terus diperbarui selama
pembuatan respons.
Swift
Aktifkan ringkasan pemikiran di
GenerationConfig
sebagai bagian dari pembuatan instance GenerativeModel
.
// ...
// Set the thinking configuration
// Optionally enable thought summaries in the generated response (default is false)
let generationConfig = GenerationConfig(
thinkingConfig: ThinkingConfig(includeThoughts: true)
)
// Specify the config as part of creating the `GenerativeModel` instance
let model = FirebaseAI.firebaseAI(backend: .googleAI()).generativeModel(
modelName: "GEMINI_MODEL_NAME",
generationConfig: generationConfig
)
let stream = try model.generateContentStream("solve x^2 + 4x + 4 = 0")
// Handle the streamed response that includes thought summaries
var thoughts = ""
var answer = ""
for try await response in stream {
if let thought = response.thoughtSummary {
if thoughts.isEmpty {
print("--- Thoughts Summary ---")
}
print(thought)
thoughts += thought
}
if let text = response.text {
if answer.isEmpty {
print("--- Answer ---")
}
print(text)
answer += text
}
}
Kotlin
Aktifkan ringkasan pemikiran di
GenerationConfig
sebagai bagian dari pembuatan instance GenerativeModel
.
// ...
// Set the thinking configuration
// Optionally enable thought summaries in the generated response (default is false)
val generationConfig = generationConfig {
thinkingConfig = thinkingConfig {
includeThoughts = true
}
}
// Specify the config as part of creating the `GenerativeModel` instance
val model = Firebase.ai(backend = GenerativeBackend.googleAI()).generativeModel(
modelName = "GEMINI_MODEL_NAME",
generationConfig,
)
// Handle the streamed response that includes thought summaries
var thoughts = ""
var answer = ""
model.generateContentStream("solve x^2 + 4x + 4 = 0").collect { response ->
response.thoughtSummary?.let {
if (thoughts.isEmpty()) {
println("--- Thoughts Summary ---")
}
print(it)
thoughts += it
}
response.text?.let {
if (answer.isEmpty()) {
println("--- Answer ---")
}
print(it)
answer += it
}
}
Java
Aktifkan ringkasan pemikiran di
GenerationConfig
sebagai bagian dari pembuatan instance GenerativeModel
.
// ...
// Set the thinking configuration
// Optionally enable thought summaries in the generated response (default is false)
ThinkingConfig thinkingConfig = new ThinkingConfig.Builder()
.setIncludeThoughts(true)
.build();
GenerationConfig generationConfig = GenerationConfig.builder()
.setThinkingConfig(thinkingConfig)
.build();
// Specify the config as part of creating the `GenerativeModel` instance
GenerativeModelFutures model = GenerativeModelFutures.from(
FirebaseAI.getInstance(GenerativeBackend.googleAI())
.generativeModel(
/* modelName */ "GEMINI_MODEL_NAME",
/* generationConfig */ generationConfig
);
);
// Streaming with Java is complex and depends on the async library used.
// This is a conceptual example using a reactive stream.
Flowable responseStream = model.generateContentStream("solve x^2 + 4x + 4 = 0");
// Handle the streamed response that includes thought summaries
StringBuilder thoughts = new StringBuilder();
StringBuilder answer = new StringBuilder();
responseStream.subscribe(response -> {
if (response.getThoughtSummary() != null) {
if (thoughts.length() == 0) {
System.out.println("--- Thoughts Summary ---");
}
System.out.print(response.getThoughtSummary());
thoughts.append(response.getThoughtSummary());
}
if (response.getText() != null) {
if (answer.length() == 0) {
System.out.println("--- Answer ---");
}
System.out.print(response.getText());
answer.append(response.getText());
}
}, throwable -> {
// Handle error
});
Web
Aktifkan ringkasan pemikiran di
GenerationConfig
sebagai bagian dari pembuatan instance GenerativeModel
.
// ...
const ai = getAI(firebaseApp, { backend: new GoogleAIBackend() });
// Set the thinking configuration
// Optionally enable thought summaries in the generated response (default is false)
const generationConfig = {
thinkingConfig: {
includeThoughts: true
}
};
// Specify the config as part of creating the `GenerativeModel` instance
const model = getGenerativeModel(ai, { model: "GEMINI_MODEL_NAME", generationConfig });
const result = await model.generateContentStream("solve x^2 + 4x + 4 = 0");
// Handle the streamed response that includes thought summaries
let thoughts = "";
let answer = "";
for await (const chunk of result.stream) {
if (chunk.thoughtSummary()) {
if (thoughts === "") {
console.log("--- Thoughts Summary ---");
}
// In Node.js, process.stdout.write(chunk.thoughtSummary()) could be used
// to avoid extra newlines.
console.log(chunk.thoughtSummary());
thoughts += chunk.thoughtSummary();
}
const text = chunk.text();
if (text) {
if (answer === "") {
console.log("--- Answer ---");
}
// In Node.js, process.stdout.write(text) could be used.
console.log(text);
answer += text;
}
}
Dart
Aktifkan ringkasan pemikiran di
GenerationConfig
sebagai bagian dari pembuatan instance GenerativeModel
.
// ...
// Set the thinking configuration
// Optionally enable thought summaries in the generated response (default is false)
final thinkingConfig = ThinkingConfig(includeThoughts: true);
final generationConfig = GenerationConfig(
thinkingConfig: thinkingConfig
);
// Specify the config as part of creating the `GenerativeModel` instance
final model = FirebaseAI.googleAI().generativeModel(
model: 'GEMINI_MODEL_NAME',
generationConfig: generationConfig,
);
final responses = model.generateContentStream('solve x^2 + 4x + 4 = 0');
// Handle the streamed response that includes thought summaries
var thoughts = '';
var answer = '';
await for (final response in responses) {
if (response.thoughtSummary != null) {
if (thoughts.isEmpty) {
print('--- Thoughts Summary ---');
}
thoughts += response.thoughtSummary!;
}
if (response.text != null) {
if (answer.isEmpty) {
print('--- Answer ---');
}
answer += response.text!;
}
}
Unity
Aktifkan ringkasan pemikiran di
GenerationConfig
sebagai bagian dari pembuatan instance GenerativeModel
.
// ...
// Set the thinking configuration
// Optionally enable thought summaries in the generated response (default is false)
var thinkingConfig = new ThinkingConfig(includeThoughts: true);
var generationConfig = new GenerationConfig(
thinkingConfig: thinkingConfig
);
// Specify the config as part of creating the `GenerativeModel` instance
var model = FirebaseAI.GetInstance(FirebaseAI.Backend.GoogleAI()).GetGenerativeModel(
modelName: "GEMINI_MODEL_NAME",
generationConfig: generationConfig
);
var stream = model.GenerateContentStreamAsync("solve x^2 + 4x + 4 = 0");
// Handle the streamed response that includes thought summaries
var thoughts = "";
var answer = "";
await foreach (var response in stream)
{
if (response.ThoughtSummary != null)
{
if (string.IsNullOrEmpty(thoughts))
{
Debug.Log("--- Thoughts Summary ---");
}
Debug.Log(response.ThoughtSummary);
thoughts += response.ThoughtSummary;
}
if (response.Text != null)
{
if (string.IsNullOrEmpty(answer))
{
Debug.Log("--- Answer ---");
}
Debug.Log(response.Text);
answer += response.Text;
}
}
Memahami tanda tangan pikiran
Saat menggunakan pemikiran dalam interaksi multi-turn, model tidak memiliki akses ke konteks pemikiran dari turn sebelumnya. Namun, jika Anda menggunakan panggilan fungsi, Anda dapat memanfaatkan tanda tangan pemikiran untuk mempertahankan konteks pemikiran di seluruh giliran. Tanda tangan pemikiran adalah representasi terenkripsi dari proses pemikiran internal model, dan tanda tangan ini tersedia saat menggunakan pemanggilan fungsi dan pemikiran. Secara khusus, tanda tangan pikiran dibuat saat:
- Pemikiran diaktifkan dan pikiran dihasilkan.
- Permintaan mencakup deklarasi fungsi.
Untuk memanfaatkan tanda tangan pemikiran, gunakan panggilan fungsi seperti biasa.
SDK Firebase AI Logic menyederhanakan proses dengan mengelola status
dan menangani tanda tangan pemikiran secara otomatis untuk Anda. SDK secara otomatis
meneruskan tanda tangan pemikiran yang dihasilkan di antara panggilan sendMessage
atau
sendMessageStream
berikutnya dalam sesi Chat
.
Harga dan penghitungan token pemikiran
Token pemikiran menggunakan harga yang sama dengan token output teks. Jika Anda mengaktifkan ringkasan pemikiran, ringkasan tersebut dianggap sebagai token pemikiran dan harganya disesuaikan.
Anda dapat mengaktifkan pemantauan AI di Firebase console untuk memantau jumlah token berpikir untuk permintaan yang mengaktifkan fitur berpikir.
Anda bisa mendapatkan jumlah total token pemikiran dari kolom thoughtsTokenCount
di atribut usageMetadata
respons:
Swift
// ...
let response = try await model.generateContent("Why is the sky blue?")
if let usageMetadata = response.usageMetadata {
print("Thoughts Token Count: \(usageMetadata.thoughtsTokenCount)")
}
Kotlin
// ...
val response = model.generateContent("Why is the sky blue?")
response.usageMetadata?.let { usageMetadata ->
println("Thoughts Token Count: ${usageMetadata.thoughtsTokenCount}")
}
Java
// ...
ListenableFuture<GenerateContentResponse> response =
model.generateContent("Why is the sky blue?");
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
@Override
public void onSuccess(GenerateContentResponse result) {
String usageMetadata = result.getUsageMetadata();
if (usageMetadata != null) {
System.out.println("Thoughts Token Count: " +
usageMetadata.getThoughtsTokenCount());
}
}
@Override
public void onFailure(Throwable t) {
t.printStackTrace();
}
}, executor);
Web
// ...
const response = await model.generateContent("Why is the sky blue?");
if (response?.usageMetadata?.thoughtsTokenCount != null) {
console.log(`Thoughts Token Count: ${response.usageMetadata.thoughtsTokenCount}`);
}
Dart
// ...
final response = await model.generateContent(
Content.text("Why is the sky blue?"),
]);
if (response?.usageMetadata case final usageMetadata?) {
print("Thoughts Token Count: ${usageMetadata.thoughtsTokenCount}");
}
Unity
// ...
var response = await model.GenerateContentAsync("Why is the sky blue?");
if (response.UsageMetadata != null)
{
UnityEngine.Debug.Log($"Thoughts Token Count: {response.UsageMetadata?.ThoughtsTokenCount}");
}
Pelajari token lebih lanjut di panduan token jumlah.