פיתוח אפליקציות ותכונות מבוססות-AI לנייד ולאינטרנט באמצעות המודלים Gemini ו-Imagen בעזרת Firebase AI Logic
Firebase AI Logic נותן לכם גישה למודלים העדכניים ביותר של AI גנרטיבי מבית Google: מודלי Gemini ומודלי Imagen.
אם אתם צריכים להתקשר אל Gemini API או אל Imagen API ישירות מהאפליקציה לנייד או מאפליקציית האינטרנט שלכם – ולא מצד השרת – אתם יכולים להשתמש ב-SDK של הלקוח Firebase AI Logic. ערכות ה-SDK האלה ללקוח מיועדות לשימוש באפליקציות לנייד ובאפליקציות לאינטרנט, ומציעות אפשרויות אבטחה מפני לקוחות לא מורשים, וגם שילוב עם שירותים אחרים של Firebase.
ערכות ה-SDK האלה ללקוח זמינות ב-Swift לפלטפורמות של אפל, ב-Kotlin וב-Java ל-Android, ב-JavaScript לאינטרנט, ב-Dart ל-Flutter וב-Unity.
בעזרת ערכות ה-SDK האלה ללקוח, אתם יכולים להוסיף התאמה אישית מבוססת-AI לאפליקציות, ליצור חוויית צ'אט מבוססת-AI, ליצור אוטומציה ואופטימיזציות מבוססות-AI ועוד הרבה יותר!
רוצים יותר גמישות או שילוב בצד השרת? Genkit הוא פריימוורק קוד פתוח של Firebase לפיתוח מתקדם של AI בצד השרת, עם גישה רחבה למודלים של Google, OpenAI, Anthropic ועוד. היא כוללת תכונות מתקדמות יותר של AI וכלים ייעודיים לניהול העסק המקומי.
יכולות עיקריות
קלט מרובה מצבים וקלט של שפה טבעית
Gemini המודלים הם מרובי מצבים, ולכן ההנחיות שנשלחות אל Gemini API יכולות לכלול טקסט, תמונות, קובצי PDF, סרטונים ואודיו. חלק מהמודלים של Gemini יכולים גם ליצור פלט מולטימודאלי.
אפשר להזין הנחיות למודלים Gemini ו-Imagen בשפה טבעית.
אבטחה ומניעת התנהלות פוגעת באפליקציות בסביבת הייצור
כדי להגן על ממשקי ה-API שנותנים גישה למודלים Gemini ו-Imagen מפני ניצול לרעה על ידי לקוחות לא מורשים, אפשר להשתמש ב-Firebase App Check.
ל-Firebase AI Logic יש גם הגבלות קצב לכל משתמשכברירת מחדל, ואפשר להגדיר את הגבלות הקצב האלה לכל משתמש באופן מלא.
תשתית חזקה
אתם יכולים ליהנות מתשתית ניתנת להרחבה שנועדה לשימוש באפליקציות לנייד ובאפליקציות אינטרנט, למשל:Cloud Storage for Firebase לניהול קבצים, שירותי מסד נתונים של Firebase לניהול נתונים מובְנים (כמו Cloud Firestore) ו-Firebase Remote Config להגדרה דינמית של תצורות בזמן ריצה.
איך זה עובד?
Firebase AI Logic מספקת ערכות SDK ללקוח, שירות פרוקסי ותכונות אחרות
שמאפשרות לכם לגשת למודלים של AI גנרטיבי של Google כדי ליצור תכונות AI באפליקציות לנייד ובאפליקציות לאינטרנט.
תמיכה במודלים של Google ובספקי Gemini API
אנחנו תומכים בכל המודלים העדכניים של Gemini ושל Imagen 3, ואתם בוחרים את ספק Gemini API המועדף כדי לגשת למודלים האלה.
אנחנו תומכים גם ב-Gemini Developer API וגם ב-Vertex AI Gemini API. ההבדלים בין שני ספקי ה-API
אם תבחרו להשתמש ב-Gemini Developer API, תוכלו לנצל את 'התוכנית החינמית' שלהם כדי להתחיל לעבוד במהירות.
SDK ללקוחות בנייד ובאינטרנט
אתם שולחים בקשות למודלים ישירות מהאפליקציה לנייד או מאפליקציית האינטרנט באמצעות ערכות ה-SDK של הלקוח שלנו, שזמינות ב-Swift לפלטפורמות של Apple, ב-Kotlin וב-Java ל-Android, ב-JavaScript לאינטרנט, ב-Dart ל-Flutter וב-Unity.Firebase AI Logic
אם הגדרתם את שני ספקי Gemini API בפרויקט Firebase שלכם, תוכלו לעבור בין ספקי ה-API פשוט על ידי הפעלת ה-API השני ושינוי כמה שורות של קוד אתחול.
בנוסף, ה-SDK ללקוח שלנו לאינטרנט מציע גישה ניסיונית להסקת מסקנות היברידית ובמכשיר לאפליקציות אינטרנט שפועלות ב-Chrome במחשב. ההגדרה הזו מאפשרת לאפליקציה להשתמש במודל במכשיר כשהוא זמין, אבל לחזור בצורה חלקה למודל שמארח בענן כשצריך.
שירות proxy
שירות ה-proxy שלנו משמש כשער בין הלקוח לבין ספק Gemini API שבחרתם (ולבין המודלים של Google). הוא מספק שירותים ושילובים שחשובים לאפליקציות לנייד ולאפליקציות אינטרנט. לדוגמה, אתם יכולים להגדיר את Firebase App Check כדי להגן על ספק ה-API שבחרתם ועל משאבי הקצה העורפי שלכם מפני ניצול לרעה על ידי לקוחות לא מורשים.
זה חשוב במיוחד אם בחרתם להשתמש ב-Gemini Developer API, כי השילוב הזה עם שירות ה-proxy שלנו מבטיח שמפתח ה-API של Gemini יישאר בשרת ולא ייטמע בבסיס הקוד של האפליקציות שלכם.App Check
נתיב ההטמעה
הגדרת פרויקט Firebase וקישור האפליקציה ל-Firebase
משתמשים בתהליך העבודה המודרך בדף Firebase AI Logic במסוף Firebase כדי להגדיר את הפרויקט (כולל הפעלת ממשקי ה-API הנדרשים לספק Gemini API שבחרתם), לרשום את האפליקציה בפרויקט Firebase ואז להוסיף את הגדרות Firebase לאפליקציה.
התקנה של SDK והפעלה שלו
מתקינים את Firebase AI Logic ה-SDK שספציפי לפלטפורמה של האפליקציה, ואז מאתחלים את השירות ויוצרים מופע של מודל באפליקציה.
הטמעת שילובים חשובים לאפליקציות לנייד ולאפליקציות אינטרנט, כמו
הגנה על ה-API מפני ניצול לרעה באמצעות
Firebase App Check
ושימוש ב-
Firebase Remote Config
כדי לעדכן פרמטרים בקוד מרחוק (כמו שם המודל).
השלבים הבאים
איך מתחילים לגשת למודל מהאפליקציה לנייד או מאפליקציית האינטרנט
[[["התוכן קל להבנה","easyToUnderstand","thumb-up"],["התוכן עזר לי לפתור בעיה","solvedMyProblem","thumb-up"],["סיבה אחרת","otherUp","thumb-up"]],[["חסרים לי מידע או פרטים","missingTheInformationINeed","thumb-down"],["התוכן מורכב מדי או עם יותר מדי שלבים","tooComplicatedTooManySteps","thumb-down"],["התוכן לא עדכני","outOfDate","thumb-down"],["בעיה בתרגום","translationIssue","thumb-down"],["בעיה בדוגמאות/בקוד","samplesCodeIssue","thumb-down"],["סיבה אחרת","otherDown","thumb-down"]],["עדכון אחרון: 2025-08-28 (שעון UTC)."],[],[],null,["Gemini API using Firebase AI Logic \nplat_ios plat_android plat_web plat_flutter plat_unity \nBuild AI-powered mobile and web apps and features with the Gemini and Imagen models using Firebase AI Logic \n\nFirebase AI Logic gives you access to the latest generative AI models from\nGoogle: the Gemini models and Imagen models.\n\nIf you need to call the Gemini API or Imagen API directly\nfrom your mobile or web app --- rather than server-side --- you can use the\nFirebase AI Logic client SDKs. These client SDKs are built\nspecifically for use with mobile and web apps, offering security options against\nunauthorized clients as well as integrations with other Firebase services.\n\n**These client SDKs are available in\nSwift for Apple platforms, Kotlin \\& Java for Android, JavaScript for web,\nDart for Flutter, and Unity.**\n\n\n| **Firebase AI Logic and its client SDKs were\n| formerly called \"Vertex AI in Firebase\".** In May 2025, we [renamed and\n| repackaged our services into Firebase AI Logic](/docs/ai-logic/faq-and-troubleshooting#renamed-product) to better reflect our expanded services and features --- for example, we now support the Gemini Developer API!\n\n\u003cbr /\u003e\n\nWith these client SDKs, you can add AI personalization to apps, build an AI chat\nexperience, create AI-powered optimizations and automation, and much more!\n\n[Get started](/docs/ai-logic/get-started)\n\n\u003cbr /\u003e\n\n**Need more flexibility or server-side integration?** \n\n[Genkit](https://genkit.dev/) is Firebase's open-source\nframework for sophisticated server-side AI development with broad access to\nmodels from Google, OpenAI, Anthropic, and more. It includes more advanced AI\nfeatures and dedicated local tooling.\n\nKey capabilities\n\n|---------------------------------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| Multimodal and natural language input | The [Gemini models](/docs/ai-logic/models) are multimodal, so prompts sent to the Gemini API can include text, images, PDFs, video, and audio. Some Gemini models can also generate multimodal *output* . Both the Gemini and Imagen models can be prompted with natural language input. |\n| Growing suite of capabilities | With the SDKs, you can call the Gemini API or Imagen API directly from your mobile or web app to [build AI chat experiences](/docs/ai-logic/chat), [generate images,](/docs/ai-logic/generate-images-imagen) use tools (like [function calling](/docs/ai-logic/function-calling) and [grounding with Google Search](/docs/ai-logic/grounding-google-search)), [stream multimodal input and output (including audio)](/docs/ai-logic/live-api), and more. |\n| Security and abuse prevention for production apps | Use [Firebase App Check](/docs/ai-logic/app-check) to help protect the APIs that access the Gemini and Imagen models from abuse by unauthorized clients. Firebase AI Logic also has [rate limits per user](/docs/ai-logic/faq-and-troubleshooting#rate-limits-per-user) *by default*, and these per-user rate limits are fully configurable. |\n| Robust infrastructure | Take advantage of scalable infrastructure that's built for use with mobile and web apps, like [managing files with Cloud Storage for Firebase](/docs/ai-logic/solutions/cloud-storage), managing structured data with Firebase database offerings (like [Cloud Firestore](/docs/firestore)), and dynamically setting run-time configurations with [Firebase Remote Config](/docs/ai-logic/solutions/remote-config). |\n\nHow does it work?\n\nFirebase AI Logic provides client SDKs, a proxy service, and other features\nwhich allow you to access Google's generative AI models to build AI features in\nyour mobile and web apps.\n\nSupport for Google models and \"Gemini API\" providers\n\nWe support all the latest Gemini models and Imagen 3 models,\nand you choose your preferred \"Gemini API\" provider to access these models.\nWe support both the Gemini Developer API and\nVertex AI Gemini API. Learn about the\n[differences between using the two API providers](/docs/ai-logic/faq-and-troubleshooting#differences-between-gemini-api-providers).\n\nAnd if you choose to use the Gemini Developer API, you can take\nadvantage of their \"free tier\" to get you up and running fast.\n\nMobile \\& web client SDKs\n\nYou send requests to the models directly from your mobile or web app using our\nFirebase AI Logic client SDKs, available in\nSwift for Apple platforms, Kotlin \\& Java for Android, JavaScript for Web,\nDart for Flutter, and Unity.\n\nIf you have both of the Gemini API providers set up in your Firebase\nproject, then you can switch between API providers just by enabling the other\nAPI and changing a few lines of initialization code.\n\nAdditionally, our client SDK for Web offers experimental access to\n[hybrid and on-device inference for web apps](/docs/ai-logic/hybrid-on-device-inference)\nrunning on Chrome on desktop. This configuration allows your app to use the\non-device model when it's available, but fall back seamlessly to the\ncloud-hosted model when needed.\n\nProxy service\n\nOur proxy service acts as a gateway between the client and your chosen\nGemini API provider (and Google's models). It provides services and\nintegrations that are important for mobile and web apps. For example, you can\n[set up Firebase App Check](/docs/ai-logic/app-check) to help protect your\nchosen API provider and your backend resources from abuse by unauthorized\nclients.\n\nThis is particularly critical if you chose to use the\nGemini Developer API because our proxy service and this App Check\nintegration make sure that your Gemini API key stays on the server and\nis *not* embedded in your apps' codebase.\n\nImplementation path\n\n|---|---------------------------------------------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| | Set up your Firebase project and connect your app to Firebase | Use the guided workflow in the [**Firebase AI Logic** page](https://console.firebase.google.com/project/_/ailogic) of the Firebase console to set up your project (including enabling the required APIs for your chosen Gemini API provider), register your app with your Firebase project, and then add your Firebase configuration to your app. |\n| | Install the SDK and initialize | Install the Firebase AI Logic SDK that's specific to your app's platform, and then initialize the service and create a model instance in your app. |\n| | Send prompt requests to the Gemini and Imagen models | Use the SDKs to send text-only or multimodal prompts to a Gemini model to generate [text and code](/docs/ai-logic/generate-text), [structured output (like JSON)](/docs/ai-logic/generate-structured-output) and [images](/docs/ai-logic/generate-images-gemini). Alternatively, you can also prompt an Imagen model to [generate images](/docs/ai-logic/generate-images-imagen). Build richer experiences with [multi-turn chat](/docs/ai-logic/chat), [bidirectional streaming of text and audio](/docs/ai-logic/live-api), and [function calling](/docs/ai-logic/function-calling). |\n| | Prepare for production | Implement important integrations for mobile and web apps, like protecting the API from abuse with [Firebase App Check](/docs/ai-logic/app-check) and using [Firebase Remote Config](/docs/ai-logic/solutions/remote-config) to update parameters in your code remotely (like model name). |\n\nNext steps\n\nGet started with accessing a model from your mobile or web app\n\n[Go to Getting Started guide](/docs/ai-logic/get-started)\n\n\nLearn more about the supported models Learn about the [models available for various use cases](/docs/ai-logic/models) and their [quotas](/docs/ai-logic/quotas) and [pricing](/docs/ai-logic/pricing).\n\n\u003cbr /\u003e"]]