במדריך הזה מוסבר איך להתחיל לבצע קריאות ל-Gemini API ישירות מהאפליקציה באמצעות Vertex AI SDK for Firebase.
דרישות מוקדמות
המדריך הזה מתבסס על ההנחה שאתם מכירים את הפיתוח של אפליקציות עם Flutter.
ודאו שסביבת הפיתוח ואפליקציית האינטרנט עומדות בדרישות הבאות:
- Dart 3.2.0+
(אופציונלי) כדאי לבדוק את האפליקציה לדוגמה.
תוכלו לנסות את ה-SDK במהירות, לראות הטמעה מלאה של תרחישי שימוש שונים, או להשתמש באפליקציה לדוגמה אם אין לכם אפליקציית אינטרנט משלכם. כדי להשתמש באפליקציה לדוגמה, תצטרכו לחבר אותה לפרויקט Firebase.
שלב 1: מגדירים פרויקט Firebase ומקשרים את האפליקציה ל-Firebase
אם כבר יש לכם פרויקט Firebase ואפליקציה שמקושרת ל-Firebase
במסוף Firebase, נכנסים לדף Build with Gemini ולוחצים על הכרטיס השני כדי להפעיל תהליך עבודה שעוזר לבצע את המשימות הבאות. אם לא מופיעה פריסת כרטיסים, המשמעות היא שהמשימות האלה כבר בוצעו.
תוכלו לשדרג את הפרויקט כדי להשתמש בתוכנית התמחור והתשלומים של Blaze לפי שימוש.
מפעילים בפרויקט את שני ממשקי ה-API הבאים:
aiplatform.googleapis.com
ו-firebaseml.googleapis.com
.
כדי להוסיף את ה-SDK לאפליקציה, צריך להמשיך לשלב הבא במדריך הזה.
אם אין לכם עדיין פרויקט Firebase ואפליקציה שמקושרת ל-Firebase
שלב 2: הוספת ה-SDK
אחרי שמגדירים את הפרויקט ב-Firebase והאפליקציה מחוברת ל-Firebase (לפי השלב הקודם), אפשר עכשיו להוסיף לאפליקציה את Vertex AI SDK for Firebase.
Vertex AI SDK ל-Flutter (firebase_vertexai
) מאפשר גישה ל-Gemini API.
הורד את המאגר
flutterfire
מהמאגרvertex_ai
מההסתעפות כדי להשתמש בגרסת התצוגה המקדימה של ה-SDK.ערכת ה-SDK תהיה נמצאת בספרייה הזו:
<your local folder>/flutterfire/packages/firebase_vertexai/firebase_vertexai
בקובץ
pubspec.yaml
, מוסיפים את יישומי הפלאגיןfirebase_vertexai
ו-firebase_core
לרשימהdependencies
.dependencies: flutter: sdk: flutter ... firebase_vertexai: any firebase_core: ^2.27.0
שלב 3: מפעילים את שירות Vertex AI ואת המודל הגנרטיבי
לפני שתוכלו לבצע קריאות ל-API, עליכם לאתחל את שירות Vertex AI ואת המודל הגנרטיבי.
בקובץ
pubspec.yaml
, משנים את נתיב החבילה שלfirebase_vertexai
למקום שאליו הורדתם את ה-SDK:// For private preview only dependency_overrides: firebase_vertexai: path: PATH/TO/YOUR/LOCAL/FIREBASE_VERTEXAI_PACKAGE
בלוגיקת קוד ה-Dart, מייבאים את שני יישומי הפלאגין של Firebase:
import 'package:firebase_vertexai/firebase_vertexai.dart'; import 'package:firebase_core/firebase_core.dart';
מפעילים את שירות Vertex AI ואת המודל הגנרטיבי:
import 'package:firebase_vertexai/firebase_vertexai.dart'; import 'package:firebase_core/firebase_core.dart'; // Initialize FirebaseApp await Firebase.initializeApp(); // Initialize the Vertex AI service and the generative model // Specify a model that supports your use case // Gemini 1.5 Pro is versatile and can accept both text-only and multimodal prompt inputs final model = FirebaseVertexAI.instance.generativeModel(modelName: 'gemini-1.5-pro-preview-0409');
בסיום המדריך לתחילת העבודה, קראו איך לבחור מודל Gemini שמתאים למקרה שלכם.
שלב 4: קריאה ל-Gemini API
עכשיו, אחרי שקישרתם את האפליקציה ל-Firebase, הוספתם את ה-SDK והפעלתם את שירות Vertex AI ואת המודל הגנרטיבי, אתם יכולים לקרוא ל-Gemini API.
בוחרים אם רוצים לשדר את התשובה (generateContentStream
) או לחכות לתגובה עד ליצירת התוצאה במלואה (generateContent
).
סטרימינג
כברירת מחדל, המודל מחזיר תשובה אחרי השלמת תהליך היצירה. עם זאת, אפשר להשיג אינטראקציות מהירות יותר אם לא מחכים לתוצאה המלאה, אלא משתמשים בסטרימינג כדי לטפל בתוצאות חלקיות.
אפשר להשתמש ב-generateContentStream()
כדי ליצור סטרימינג של טקסט שנוצר מבקשת הנחיה שכוללת רק טקסט:
import 'package:firebase_vertexai/firebase_vertexai.dart';
import 'package:firebase_core/firebase_core.dart';
await Firebase.initializeApp();
// Initialize the Vertex AI service and the generative model
// Specify a model that supports your use case
// Gemini 1.5 Pro is versatile and can accept both text-only and multimodal prompt inputs
final model =
FirebaseVertexAI.instance.generativeModel(modelName: 'gemini-1.5-pro-preview-0409');
// Provide a prompt that contains text
final prompt = [Content.text('Write a story about a magic backpack.')];
// To stream generated text output, call generateContentStream with the text input
final response = model.generateContentStream(prompt);
await for (final chunk in response) {
print(chunk.text);
}
ללא סטרימינג
לחלופין, תוכלו לחכות לתוצאה המלאה במקום לסטרימינג. התוצאה תוחזר רק אחרי שהמודל ישלים את תהליך היצירה כולו.
בעזרת generateContent()
אפשר ליצור טקסט מבקשה עם הנחיה שכוללת רק טקסט:
import 'package:firebase_vertexai/firebase_vertexai.dart';
import 'package:firebase_core/firebase_core.dart';
await Firebase.initializeApp();
// Initialize the Vertex AI service and the generative model
// Specify a model that supports your use case
// Gemini 1.5 Pro is versatile and can accept both text-only and multimodal prompt inputs
final model =
FirebaseVertexAI.instance.generativeModel(modelName: 'gemini-1.5-pro-preview-0409');
// Provide a prompt that contains text
final prompt = [Content.text('Write a story about a magic backpack.')];
// To generate text output, call generateContent with the text input
final response = await model.generateContent(prompt);
print(response.text);
מה עוד אפשר לעשות?
מידע נוסף על הדגמים של Gemini
כאן תוכלו לקרוא על המודלים הזמינים בתרחישים שונים ועל המכסות והתמחור שלהם.
כדאי לנסות יכולות נוספות של Gemini API
- למידע נוסף על שליחת הנחיות טקסט בלבד
- שולחים בקשות להנחיות במספר מצבים עם הנחיות בפורמט טקסט ומדיה (כולל תמונות, קובצי PDF, וידאו ואודיו).
- יצירת שיחות עם כמה פניות (צ'אט).
מידע נוסף על שליטה ביצירת תוכן
- הסבר על עיצוב הנחיות, כולל שיטות מומלצות, אסטרטגיות והנחיות לדוגמה.
- להגדיר פרמטרים של המודל כמו טמפרטורה ואסימוני פלט מקסימלי.
- תוכלו להשתמש בהגדרות הבטיחות כדי לשנות את הסבירות לקבלת תגובות שעשויות להיחשב כמזיקות.
אתם יכולים גם להתנסות בהנחיות ובמודלים של הגדרות אישיות באמצעות Vertex AI Studio.
נשמח לקבל משוב על חוויית השימוש ב-Vertex AI SDK for Firebase