כשאתם קוראים ל-Gemini API מהאפליקציה באמצעות SDK של Vertex AI in Firebase, תוכלו להנחות את מודל Gemini ליצור טקסט על סמך קלט של טקסט בלבד.
אפשרויות אחרות לעבודה עם Gemini API
אפשר גם להתנסות בגרסה חלופית 'Google AI' של Gemini API
ולקבל גישה בחינם (במגבלות ובאזורים שבהם האפשרות זמינה) באמצעות Google AI Studio וחבילות ה-SDK של לקוחות Google AI. צריך להשתמש ב-SDK האלה לצורך יצירת אב טיפוס בלבד באפליקציות לנייד ובאפליקציות אינטרנט.אחרי שתתמצאו באופן שבו פועל Gemini API, תוכלו לעבור ל-Vertex AI in Firebase SDKs (המסמכים האלה) שיש בהם תכונות נוספות רבות שחשובות לאפליקציות לנייד ולאפליקציות אינטרנט, כמו הגנה על ה-API מפני ניצול לרעה באמצעות Firebase App Check ותמיכה בבקשות עם קובצי מדיה גדולים.
אפשר גם להפעיל את Vertex AI Gemini API בצד השרת (למשל באמצעות Python, Node.js או Go)
. משתמשים בערכות ה-SDK של Vertex AI בצד השרת, ב-Firebase Genkit או ב-Firebase Extensions עבור Gemini API.
לפני שמתחילים
אם עדיין לא עשיתם זאת, כדאי לעיין במדריך למתחילים, שבו מוסבר איך מגדירים את פרויקט Firebase, מחברים את האפליקציה ל-Firebase, מוסיפים את ה-SDK, מאתחלים את השירות Vertex AI ויוצרים מכונה של GenerativeModel
.
יצירת טקסט מקלט טקסט בלבד
אפשר להפעיל את Gemini API באמצעות קלט שכולל רק טקסט. בשיחות האלה, צריך להשתמש במודל שתומך בהנחיות בטקסט בלבד (כמו Gemini 2.0 Flash).
בוחרים אם להעביר את התשובה בסטרימינג (generateContentStream
) או להמתין לתשובה עד שהתוצאה כולה נוצרת (generateContent
).
כדי לקבל אינטראקציות מהירות יותר, אפשר לא להמתין לתוצאה המלאה של יצירת המודל, אלא להשתמש בסטרימינג כדי לטפל בתוצאות חלקיות.
בדוגמה הזו מוסבר איך להשתמש ב-generateContentStream
כדי להעביר טקסט שנוצר מבקשת הנחיה שכוללת רק טקסט:
import FirebaseVertexAI
// Initialize the Vertex AI service
let vertex = VertexAI.vertexAI()
// Create a `GenerativeModel` instance with a model that supports your use case
let model = vertex.generativeModel(modelName: "gemini-2.0-flash")
// Provide a prompt that contains text
let prompt = "Write a story about a magic backpack."
// To stream generated text output, call generateContentStream with the text input
let contentStream = try model.generateContentStream(prompt)
for try await chunk in contentStream {
if let text = chunk.text {
print(text)
}
}
לחלופין, אפשר להמתין עד לקבלת התוצאה המלאה במקום להפעיל את הסטרימינג. התוצאה תוחזר רק אחרי שהמודל ישלים את כל תהליך היצירה.
בדוגמה הזו מוסבר איך משתמשים ב-generateContent
כדי ליצור טקסט מבקשת הנחיה שכוללת רק טקסט:
import FirebaseVertexAI
// Initialize the Vertex AI service
let vertex = VertexAI.vertexAI()
// Create a `GenerativeModel` instance with a model that supports your use case
let model = vertex.generativeModel(modelName: "gemini-2.0-flash")
// Provide a prompt that contains text
let prompt = "Write a story about a magic backpack."
// To generate text output, call generateContent with the text input
let response = try await model.generateContent(prompt)
print(response.text ?? "No text in response.")
כאן מוסבר איך בוחרים מודל, ואם רוצים גם מיקום, שמתאימים לתרחיש לדוגמה ולאפליקציה שלכם.
מה עוד אפשר לעשות?
- כך סופרים אסימונים לפני ששולחים הנחיות ארוכות למודל.
- כדאי להתחיל לחשוב על ההכנות לקראת ההשקה בסביבת הייצור, כולל הגדרת Firebase App Check כדי להגן על ה-Gemini API מפני ניצול לרעה על ידי לקוחות לא מורשים. בנוסף, חשוב לעיין ברשימת המשימות להעברה לייצור.
לנסות יכולות אחרות
- ליצור שיחות עם זיכרון (צ'אט).
- יצירת טקסט מהנחיות מולטי-מודאליות (כולל טקסט, תמונות, קובצי PDF, סרטונים ואודיו).
- יצירת פלט מובנה (כמו JSON) גם מהנחיות טקסט וגם מהנחיות מולטימודיאליות.
- יצירת תמונות מהנחיות טקסט.
- משתמשים בקריאה לפונקציה כדי לחבר מודלים גנרטיביים למערכות ולמידע חיצוניים.
איך שולטים ביצירת תוכן
- הסבר על תכנון הנחיות, כולל שיטות מומלצות, אסטרטגיות והנחיות לדוגמה.
- להגדיר את הפרמטרים של המודל, כמו טמפרטורה ואסימונים מקסימליים של פלט (עבור Gemini) או יחס גובה-רוחב ויצירת אנשים (עבור Imagen).
- שימוש בהגדרות הבטיחות כדי לשנות את הסבירות לקבלת תשובות שעשויות להיחשב כמזיקות.
מידע נוסף על המודלים הנתמכים
כאן תוכלו לקרוא מידע נוסף על המודלים הזמינים לתרחישי שימוש שונים, על המכסות ועל התמחור שלהם.שליחת משוב על חוויית השימוש ב-Vertex AI in Firebase