Bằng cách sử dụng Gemini API, bạn có thể tạo các cuộc trò chuyện ở dạng tự do trên nhiều chặng. SDK Vertex AI in Firebase đơn giản hoá quy trình bằng cách quản lý trạng thái cuộc trò chuyện. Vì vậy, không giống như generateContentStream()
hoặc generateContent()
, bạn không phải tự lưu trữ nhật ký trò chuyện.
Trước khi bắt đầu
Hãy hoàn tất hướng dẫn bắt đầu sử dụng cho SDK Vertex AI in Firebase nếu bạn chưa thực hiện. Hãy đảm bảo rằng bạn đã hoàn thành tất cả các bước sau:
Thiết lập một dự án Firebase mới hoặc hiện có, bao gồm cả việc sử dụng gói giá Blaze và bật các API bắt buộc.
Kết nối ứng dụng của bạn với Firebase, bao gồm cả việc đăng ký ứng dụng và thêm cấu hình Firebase vào ứng dụng.
Thêm SDK và khởi chạy dịch vụ Vertex AI cũng như mô hình tạo sinh trong ứng dụng của bạn.
Sau khi kết nối ứng dụng với Firebase, thêm SDK và khởi chạy dịch vụ Vertex AI cũng như mô hình tạo sinh, bạn đã sẵn sàng gọi Gemini API.
Gửi yêu cầu câu lệnh trò chuyện
Để tạo một cuộc trò chuyện nhiều lượt (như cuộc trò chuyện), hãy bắt đầu bằng cách khởi chạy cuộc trò chuyện bằng cách gọi startChat()
. Sau đó, hãy sử dụng sendMessageStream()
(hoặc sendMessage()
) để gửi tin nhắn mới của người dùng. Thao tác này cũng sẽ thêm tin nhắn và nội dung phản hồi vào nhật ký trò chuyện.
Có hai lựa chọn có thể áp dụng cho role
liên kết với nội dung trong cuộc trò chuyện:
user
: vai trò đưa ra lời nhắc. Giá trị này là giá trị mặc định cho các lệnh gọi đếnsendMessageStream()
(hoặcsendMessage()
) và hàm sẽ gửi một trường hợp ngoại lệ nếu một vai trò khác được truyền.model
: vai trò cung cấp phản hồi. Bạn có thể dùng vai trò này khi gọistartChat()
bằnghistory
hiện có.
Chọn xem bạn muốn truyền trực tuyến phản hồi (sendMessageStream
) hay chờ phản hồi cho đến khi toàn bộ kết quả được tạo (sendMessage
).
Phát trực tuyến
Bạn có thể đạt được các lượt tương tác nhanh hơn bằng cách không chờ toàn bộ kết quả từ quá trình tạo mô hình, mà thay vào đó, hãy sử dụng tính năng truyền trực tuyến để xử lý một phần kết quả.
Không truyền trực tuyến
Ngoài ra, bạn có thể chờ toàn bộ kết quả thay vì truyền trực tuyến; kết quả chỉ được trả về sau khi mô hình hoàn tất toàn bộ quá trình tạo.
Tìm hiểu cách chọn một mô hình Gemini và một vị trí phù hợp với trường hợp sử dụng và ứng dụng của bạn (không bắt buộc).
Bạn có thể làm gì khác?
- Tìm hiểu cách đếm mã thông báo trước khi gửi các câu lệnh dài đến mô hình.
- Thiết lập Cloud Storage for Firebase để bạn có thể đưa các tệp lớn vào các yêu cầu đa phương thức bằng cách sử dụng URL Cloud Storage. Các tệp có thể bao gồm hình ảnh, tệp PDF, video và âm thanh.
- Bắt đầu suy nghĩ về việc chuẩn bị cho bản phát hành chính thức, bao gồm cả việc thiết lập Firebase App Check để bảo vệ Gemini API khỏi hành vi lạm dụng của các ứng dụng không được uỷ quyền.
Thử các tính năng khác của Gemini API
- Tạo văn bản từ lời nhắc chỉ có văn bản.
- Tạo văn bản từ các câu lệnh đa phương thức (bao gồm văn bản, hình ảnh, tệp PDF, video và âm thanh).
- Tạo kết quả có cấu trúc (như JSON) từ cả lời nhắc bằng văn bản và đa phương thức.
- Sử dụng tính năng gọi hàm để kết nối các mô hình tạo sinh với các hệ thống và thông tin bên ngoài.
Tìm hiểu cách kiểm soát việc tạo nội dung
- Tìm hiểu về thiết kế lời nhắc, bao gồm cả các phương pháp hay nhất, chiến lược và ví dụ về câu lệnh.
- Định cấu hình các tham số của mô hình như nhiệt độ và mã thông báo đầu ra tối đa.
- Sử dụng chế độ cài đặt an toàn để điều chỉnh khả năng nhận được những phản hồi có thể được coi là gây hại.
Tìm hiểu thêm về các mô hình Gemini
Tìm hiểu về các mô hình có sẵn cho nhiều trường hợp sử dụng và hạn mức và mức giá của các mô hình đó.Gửi ý kiến phản hồi về trải nghiệm của bạn với Vertex AI in Firebase