Tạo cuộc trò chuyện (trò chuyện) nhiều lượt với Gemini API


Khi sử dụng Gemini API, bạn có thể tạo các cuộc trò chuyện ở dạng tự do qua nhiều lượt. SDK Vertex AI in Firebase đơn giản hoá quy trình này bằng cách quản lý trạng thái của cuộc trò chuyện. Vì vậy, không giống như generateContentStream() hoặc generateContent(), bạn không cần tự lưu trữ nhật ký trò chuyện.

Trước khi bắt đầu

Hãy hoàn thành hướng dẫn bắt đầu sử dụng cho SDK Vertex AI in Firebase nếu bạn chưa thực hiện. Hãy đảm bảo rằng bạn đã làm tất cả những việc sau:

  1. Thiết lập một dự án Firebase mới hoặc hiện có, bao gồm cả việc sử dụng gói giá Blaze và bật các API bắt buộc.

  2. Kết nối ứng dụng với Firebase, bao gồm cả việc đăng ký ứng dụng và thêm cấu hình Firebase vào ứng dụng.

  3. Thêm SDK và khởi chạy dịch vụ Vertex AI cũng như mô hình tạo sinh trong ứng dụng.

Sau khi kết nối ứng dụng với Firebase, thêm SDK và khởi chạy dịch vụ Vertex AI cũng như mô hình tạo sinh, bạn đã sẵn sàng gọi Gemini API.

Gửi yêu cầu câu lệnh trò chuyện

Để tạo một cuộc trò chuyện nhiều lượt (như cuộc trò chuyện), hãy bắt đầu bằng cách khởi chạy cuộc trò chuyện bằng cách gọi startChat(). Sau đó, hãy sử dụng sendMessageStream() (hoặc sendMessage()) để gửi tin nhắn mới của người dùng. Thao tác này cũng sẽ thêm tin nhắn và nội dung phản hồi vào nhật ký trò chuyện.

Có hai tuỳ chọn có thể dùng cho role liên kết với nội dung trong một cuộc trò chuyện:

  • user: vai trò cung cấp lời nhắc. Giá trị này là mặc định cho các lệnh gọi đến sendMessageStream() (hoặc sendMessage()) và hàm sẽ gửi một ngoại lệ nếu một vai trò khác được truyền.

  • model: vai trò cung cấp phản hồi. Bạn có thể sử dụng vai trò này khi gọi startChat() bằng history hiện có.

Chọn xem bạn muốn truyền trực tuyến phản hồi (sendMessageStream) hay đợi phản hồi cho đến khi toàn bộ kết quả được tạo (sendMessage).

Phát trực tuyến

Bạn có thể đạt được các lượt tương tác nhanh hơn bằng cách không chờ toàn bộ kết quả từ quá trình tạo mô hình, mà thay vào đó, hãy sử dụng tính năng truyền trực tuyến để xử lý một phần kết quả.

Không truyền trực tuyến

Ngoài ra, bạn có thể chờ toàn bộ kết quả thay vì truyền trực tuyến; kết quả chỉ được trả về sau khi mô hình hoàn tất toàn bộ quá trình tạo.

Tìm hiểu cách chọn một mô hình Gemini và một vị trí phù hợp với trường hợp sử dụng và ứng dụng của bạn (không bắt buộc).

Bạn có thể làm gì khác?

  • Tìm hiểu cách đếm mã thông báo trước khi gửi lời nhắc dài đến mô hình.
  • Thiết lập Cloud Storage for Firebase để bạn có thể đưa các tệp lớn vào yêu cầu đa phương thức và có giải pháp quản lý tốt hơn để cung cấp tệp trong lời nhắc. Tệp có thể bao gồm hình ảnh, tệp PDF, video và âm thanh.
  • Bắt đầu suy nghĩ về việc chuẩn bị cho bản phát hành chính thức, bao gồm cả việc thiết lập Firebase App Check để bảo vệ Gemini API khỏi hành vi lạm dụng của các ứng dụng không được uỷ quyền.

Thử các tính năng khác của Gemini API

Tìm hiểu cách kiểm soát việc tạo nội dung

Bạn cũng có thể thử nghiệm với các câu lệnh và cấu hình mô hình bằng cách sử dụng Vertex AI Studio.

Tìm hiểu thêm về các mô hình Gemini

Tìm hiểu về các mô hình có sẵn cho nhiều trường hợp sử dụnghạn mức và mức giá của các mô hình đó.


Đưa ra ý kiến phản hồi về trải nghiệm của bạn với Vertex AI in Firebase