Tạo cuộc trò chuyện (trò chuyện) nhiều lượt với Gemini API


Bằng cách sử dụng Gemini API, bạn có thể tạo các cuộc trò chuyện ở dạng tự do trên nhiều chặng. SDK Vertex AI in Firebase đơn giản hoá quy trình bằng cách quản lý trạng thái cuộc trò chuyện. Vì vậy, không giống như generateContentStream() hoặc generateContent(), bạn không phải tự lưu trữ nhật ký trò chuyện.

Trước khi bắt đầu

Hãy hoàn tất hướng dẫn bắt đầu sử dụng cho SDK Vertex AI in Firebase nếu bạn chưa thực hiện. Hãy đảm bảo rằng bạn đã hoàn thành tất cả các bước sau:

  1. Thiết lập một dự án Firebase mới hoặc hiện có, bao gồm cả việc sử dụng gói giá Blaze và bật các API bắt buộc.

  2. Kết nối ứng dụng của bạn với Firebase, bao gồm cả việc đăng ký ứng dụng và thêm cấu hình Firebase vào ứng dụng.

  3. Thêm SDK và khởi chạy dịch vụ Vertex AI cũng như mô hình tạo sinh trong ứng dụng của bạn.

Sau khi kết nối ứng dụng với Firebase, thêm SDK và khởi chạy dịch vụ Vertex AI cũng như mô hình tạo sinh, bạn đã sẵn sàng gọi Gemini API.

Gửi yêu cầu câu lệnh trò chuyện

Để tạo một cuộc trò chuyện nhiều lượt (như cuộc trò chuyện), hãy bắt đầu bằng cách khởi chạy cuộc trò chuyện bằng cách gọi startChat(). Sau đó, hãy sử dụng sendMessageStream() (hoặc sendMessage()) để gửi tin nhắn mới của người dùng. Thao tác này cũng sẽ thêm tin nhắn và nội dung phản hồi vào nhật ký trò chuyện.

Có hai lựa chọn có thể áp dụng cho role liên kết với nội dung trong cuộc trò chuyện:

  • user: vai trò đưa ra lời nhắc. Giá trị này là giá trị mặc định cho các lệnh gọi đến sendMessageStream() (hoặc sendMessage()) và hàm sẽ gửi một trường hợp ngoại lệ nếu một vai trò khác được truyền.

  • model: vai trò cung cấp phản hồi. Bạn có thể dùng vai trò này khi gọi startChat() bằng history hiện có.

Chọn xem bạn muốn truyền trực tuyến phản hồi (sendMessageStream) hay chờ phản hồi cho đến khi toàn bộ kết quả được tạo (sendMessage).

Phát trực tuyến

Bạn có thể đạt được các lượt tương tác nhanh hơn bằng cách không chờ toàn bộ kết quả từ quá trình tạo mô hình, mà thay vào đó, hãy sử dụng tính năng truyền trực tuyến để xử lý một phần kết quả.

Không truyền trực tuyến

Ngoài ra, bạn có thể chờ toàn bộ kết quả thay vì truyền trực tuyến; kết quả chỉ được trả về sau khi mô hình hoàn tất toàn bộ quá trình tạo.

Tìm hiểu cách chọn một mô hình Gemini và một vị trí phù hợp với trường hợp sử dụng và ứng dụng của bạn (không bắt buộc).

Bạn có thể làm gì khác?

  • Tìm hiểu cách đếm mã thông báo trước khi gửi các câu lệnh dài đến mô hình.
  • Thiết lập Cloud Storage for Firebase để bạn có thể đưa các tệp lớn vào các yêu cầu đa phương thức bằng cách sử dụng URL Cloud Storage. Các tệp có thể bao gồm hình ảnh, tệp PDF, video và âm thanh.
  • Bắt đầu suy nghĩ về việc chuẩn bị cho bản phát hành chính thức, bao gồm cả việc thiết lập Firebase App Check để bảo vệ Gemini API khỏi hành vi lạm dụng của các ứng dụng không được uỷ quyền.

Thử các tính năng khác của Gemini API

Tìm hiểu cách kiểm soát việc tạo nội dung

Bạn cũng có thể thử nghiệm các câu lệnh và cấu hình mô hình bằng Vertex AI Studio.

Tìm hiểu thêm về các mô hình Gemini

Tìm hiểu về các mô hình có sẵn cho nhiều trường hợp sử dụnghạn mức và mức giá của các mô hình đó.


Gửi ý kiến phản hồi về trải nghiệm của bạn với Vertex AI in Firebase