Dengan Gemini API, Anda dapat membuat percakapan bentuk bebas di
beberapa kesempatan. Vertex AI for Firebase SDK menyederhanakan proses dengan mengelola status percakapan, sehingga tidak seperti generateContentStream()
atau generateContent()
, Anda tidak perlu menyimpan histori percakapan sendiri.
Sebelum memulai
Jika Anda belum melakukannya, pelajari panduan memulai untuk Vertex AI for Firebase SDK. Pastikan Anda telah melakukan semua hal berikut:
Siapkan project Firebase baru atau yang sudah ada, termasuk menggunakan paket harga Blaze dan mengaktifkan API yang diperlukan.
Hubungkan aplikasi Anda ke Firebase, termasuk mendaftarkan aplikasi dan menambahkan konfigurasi Firebase ke aplikasi Anda.
Tambahkan SDK dan lakukan inisialisasi layanan Vertex AI serta model generatif di aplikasi Anda.
Setelah menghubungkan aplikasi ke Firebase, menambahkan SDK, serta melakukan inisialisasi layanan Vertex AI dan model generatif, Anda siap memanggil Gemini API.
Kirim permintaan perintah chat
Untuk membuat percakapan multi-giliran (seperti chat), mulailah dengan menginisialisasi
chat dengan memanggil startChat()
. Kemudian, gunakan
sendMessageStream()
(atau sendMessage()
) untuk mengirim pesan pengguna baru, yang
juga akan menambahkan pesan dan respons ke histori chat.
Ada dua kemungkinan opsi untuk role
yang dikaitkan dengan konten dalam
percakapan:
user
: peran yang menyediakan dialog. Nilai ini merupakan nilai default untuk panggilan kesendMessageStream()
(atausendMessage()
), dan fungsi ini menampilkan pengecualian jika peran lain diteruskan.model
: peran yang memberikan respons. Peran ini dapat digunakan saat memanggilstartChat()
denganhistory
yang ada.
Pilih apakah Anda ingin melakukan streaming respons (sendMessageStream
) atau menunggu respons hingga seluruh hasil dibuat (sendMessage
).
Perangkat streaming
Anda dapat mencapai interaksi yang lebih cepat dengan tidak menunggu seluruh hasil dari pembuatan model. Sebagai gantinya, gunakan streaming untuk menangani hasil parsial.
Contoh ini menunjukkan cara menggunakan sendMessageStream()
untuk mengalirkan respons dari
model:
Tanpa streaming
Atau, Anda dapat menunggu seluruh hasil, bukan streaming; hasilnya hanya akan ditampilkan setelah model menyelesaikan seluruh proses pembuatan.
Contoh ini menunjukkan cara menggunakan sendMessage()
untuk mengirim pesan pengguna baru:
Pelajari cara memilih model Gemini dan, jika perlu, lokasi yang sesuai untuk kasus penggunaan dan aplikasi Anda.
Kamu bisa apa lagi?
- Pelajari cara menghitung token sebelum mengirimkan perintah panjang ke model.
- Siapkan Cloud Storage for Firebase agar Anda dapat menyertakan file berukuran besar dalam permintaan multimodal menggunakan URL Cloud Storage. File dapat mencakup gambar, PDF, video, dan audio.
- Mulailah memikirkan untuk mempersiapkan produksi, termasuk menyiapkan Firebase App Check untuk melindungi Gemini API dari penyalahgunaan oleh klien yang tidak sah.
Coba kemampuan lain Gemini API
- Buat teks dari perintah khusus teks.
- Buat teks dari perintah multimodal (termasuk teks, gambar, PDF, video, dan audio).
- Gunakan panggilan fungsi untuk menghubungkan model generatif ke sistem dan informasi eksternal.
Pelajari cara mengontrol pembuatan konten
- Pahami desain prompt, termasuk praktik terbaik, strategi, dan contoh perintah.
- Konfigurasi parameter model seperti suhu dan token output maksimum.
- Gunakan setelan keamanan untuk menyesuaikan kemungkinan mendapatkan respons yang mungkin dianggap berbahaya.
Pelajari model Gemini lebih lanjut
Pelajari model yang tersedia untuk berbagai kasus penggunaan serta kuota dan harganya.Berikan masukan tentang pengalaman Anda menggunakan Vertex AI for Firebase