Dengan menggunakan Gemini API, Anda dapat membuat percakapan bentuk bebas di
beberapa giliran. Vertex AI in Firebase SDK menyederhanakan proses dengan mengelola
status percakapan, sangat berbeda dengan generateContentStream()
atau
generateContent()
, Anda tidak perlu menyimpan sendiri histori percakapan.
Sebelum memulai
Jika Anda belum melakukannya, selesaikan panduan memulai untuk Vertex AI in Firebase SDK. Pastikan Anda telah melakukan semua hal berikut:
Siapkan project Firebase baru atau yang sudah ada, termasuk menggunakan Paket harga Blaze dan aktifkan API yang diperlukan.
Hubungkan aplikasi Anda ke Firebase, termasuk mendaftarkan aplikasi dan menambahkan konfigurasi Firebase ke aplikasi Anda.
Tambahkan SDK dan lakukan inisialisasi layanan Vertex AI serta model generatif dalam aplikasi Anda.
Setelah menghubungkan aplikasi ke Firebase, menambahkan SDK, dan menginisialisasi layanan Vertex AI dan model generatif, Anda siap untuk memanggil Gemini API.
Kirim permintaan perintah chat
Untuk membuat percakapan bolak-balik (seperti chat), mulai dengan menginisialisasi
chat dengan memanggil startChat()
. Kemudian gunakan
sendMessageStream()
(atau sendMessage()
) untuk mengirim pesan pengguna baru, yang
juga akan menambahkan pesan dan respons ke histori chat.
Ada dua kemungkinan opsi untuk role
yang terkait dengan konten di
percakapan:
user
: peran yang memberikan perintah. Ini adalah nilai {i>default<i} untuk panggilan kesendMessageStream()
(atausendMessage()
), dan fungsi tersebut akan menampilkan pengecualian jika peran yang berbeda diteruskan.model
: peran yang memberikan respons. Peran ini dapat digunakan saat memanggilstartChat()
denganhistory
yang ada.
Pilih apakah Anda ingin men-streaming respons (sendMessageStream
) atau menunggu
untuk respons hingga seluruh hasil dibuat (sendMessage
).
Streaming
Anda dapat mencapai interaksi yang lebih cepat dengan tidak menunggu seluruh hasil dari pembuatan model, dan sebagai gantinya menggunakan streaming untuk menangani hasil parsial.
Tanpa streaming
Atau, Anda dapat menunggu seluruh hasil, bukan streaming; tindakan hasil hanya ditampilkan setelah model menyelesaikan seluruh pembuatan {i>checkout<i}.
Pelajari cara memilih model Gemini dan jika perlu, lokasi sesuai untuk kasus penggunaan dan aplikasi Anda.
Kamu bisa apa lagi?
- Pelajari cara menghitung token sebelum mengirim prompt yang panjang ke model.
- Menyiapkan Cloud Storage for Firebase sehingga Anda bisa menyertakan file berukuran besar dalam permintaan multimodal menggunakan Cloud Storage URL. File dapat mencakup gambar, PDF, video, dan audio.
- Mulailah berpikir tentang mempersiapkan diri untuk produksi, termasuk menyiapkan Firebase App Check untuk melindungi Gemini API dari penyalahgunaan oleh klien yang tidak berwenang.
Coba kemampuan Gemini API lainnya
- Buat teks dari dialog khusus teks.
- Buat teks dari dialog multimodal (termasuk teks, gambar, PDF, video, dan audio).
- Gunakan panggilan fungsi untuk menghubungkan generatif ke sistem dan informasi eksternal.
Pelajari cara mengontrol pembuatan konten
- Memahami desain prompt, termasuk praktik terbaik, strategi, dan contoh perintah.
- Mengonfigurasi parameter model seperti suhu dan token output maksimum.
- Gunakan setelan keamanan untuk menyesuaikan kemungkinan mendapatkan respons yang mungkin dianggap berbahaya.
Pelajari lebih lanjut model Gemini
Pelajari tentang model yang tersedia untuk berbagai kasus penggunaan dan mereka kuota dan harga.Beri masukan tentang pengalaman Anda dengan Vertex AI in Firebase