Crea app e funzionalità web e mobile basate sull'AI con i modelli Gemini e Imagen utilizzando Firebase AI Logic
Firebase AI Logic ti dà accesso ai più recenti modelli di AI generativa di Google: i modelli Gemini e Imagen.
Se devi chiamare Gemini API o Imagen API direttamente
dalla tua app web o mobile, anziché dal lato server, puoi utilizzare gli
SDK client Firebase AI Logic. Questi SDK client sono creati
specificamente per l'utilizzo con app mobile e web, offrendo opzioni di sicurezza contro
client non autorizzati, nonché integrazioni con altri servizi Firebase.
Questi SDK client sono disponibili in
Swift per le piattaforme Apple, Kotlin e Java per Android, JavaScript per il web,
Dart per Flutter e Unity.
Con questi SDK client, puoi aggiungere la personalizzazione dell'AI alle app, creare un'esperienza di chat AI, creare ottimizzazioni e automazione basate sull'AI e molto altro ancora.
Hai bisogno di maggiore flessibilità o di un'integrazione lato server? Genkit è il framework open source di Firebase
per lo sviluppo di AI sofisticate lato server con ampio accesso a
modelli di Google, OpenAI, Anthropic e altri. Include funzionalità di AI più avanzate
e strumenti locali dedicati.
Funzionalità chiave
Input multimodale e in linguaggio naturale
I modelli Gemini sono
multimodali, quindi i prompt inviati a Gemini API possono includere testo,
immagini, PDF, video e audio. Alcuni modelli Gemini possono anche
generare output multimodali.
È possibile richiedere sia il modello Gemini sia il modello Imagen con
input in linguaggio naturale.
Sicurezza e prevenzione di abusi per le app di produzione
Utilizza
Firebase App Check per proteggere
le API che accedono ai modelli Gemini e Imagen
da abusi da parte di client non autorizzati.
Firebase AI Logic ha anche
limiti di frequenza per utenteper impostazione predefinita e questi limiti di frequenza per utente sono completamente
configurabili.
Firebase AI Logic fornisce SDK client, un servizio proxy e altre funzionalità
che ti consentono di accedere ai modelli di AI generativa di Google per creare funzionalità di AI nelle
tue app web e mobile.
Supporto per i modelli Google e i fornitori di "Gemini API"
Supportiamo tutti i modelli Gemini e Imagen 3 più recenti
e puoi scegliere il fornitore "Gemini API" che preferisci per accedere a questi modelli.
Supportiamo sia Gemini Developer API che
Vertex AI Gemini API. Scopri le
differenze tra l'utilizzo dei due fornitori di API.
Se scegli di utilizzare Gemini Developer API, puoi usufruire del "livello senza costi" per iniziare rapidamente.
SDK client web e per dispositivi mobili
Invii le richieste ai modelli direttamente dalla tua app web o mobile utilizzando i nostri SDK client Firebase AI Logic, disponibili in Swift per le piattaforme Apple, Kotlin e Java per Android, JavaScript per il web, Dart per Flutter e Unity.
Se hai configurato entrambi i provider Gemini API nel tuo progetto Firebase, puoi passare da un provider API all'altro semplicemente abilitando l'altra API e modificando alcune righe di codice di inizializzazione.
Inoltre, il nostro SDK client per il web offre l'accesso sperimentale all'inferenza ibrida e on-device per le app web in esecuzione su Chrome su computer. Questa configurazione consente alla tua app di utilizzare il
modello sul dispositivo quando è disponibile, ma di passare senza problemi al
modello ospitato sul cloud quando necessario.
Servizio proxy
Il nostro servizio proxy funge da gateway tra il client e il provider
Gemini API scelto (e i modelli di Google). Fornisce servizi e
integrazioni importanti per le app web e mobile. Ad esempio, puoi
configurare Firebase App Check per proteggere il
provider API scelto e le risorse di backend da abusi da parte di client non autorizzati.
Ciò è particolarmente importante se hai scelto di utilizzare
Gemini Developer API perché il nostro servizio proxy e questa integrazione App Check
garantiscono che la chiave API Gemini rimanga sul server e
non sia incorporata nel codebase delle tue app.
Percorso di implementazione
Configura il tuo progetto Firebase e connetti la tua app a Firebase
Utilizza il flusso di lavoro guidato nella pagina Firebase AI Logic della console Firebase per configurare il progetto (inclusa l'attivazione delle API richieste per il provider Gemini API scelto), registrare l'app con il progetto Firebase e poi aggiungere la configurazione Firebase all'app.
Installa l'SDK e inizializzalo
Installa l'SDK Firebase AI Logic specifico per la piattaforma della tua app, quindi inizializza il servizio e crea un'istanza del modello nella tua app.
Inviare richieste di prompt ai modelli Gemini e Imagen
Implementa integrazioni importanti per app mobile e web, ad esempio
proteggi l'API da abusi con
Firebase App Check
e utilizza
Firebase Remote Config
per aggiornare i parametri nel codice da remoto (ad esempio il nome del modello).
Passaggi successivi
Inizia ad accedere a un modello dalla tua app mobile o web
[[["Facile da capire","easyToUnderstand","thumb-up"],["Il problema è stato risolto","solvedMyProblem","thumb-up"],["Altra","otherUp","thumb-up"]],[["Mancano le informazioni di cui ho bisogno","missingTheInformationINeed","thumb-down"],["Troppo complicato/troppi passaggi","tooComplicatedTooManySteps","thumb-down"],["Obsoleti","outOfDate","thumb-down"],["Problema di traduzione","translationIssue","thumb-down"],["Problema relativo a esempi/codice","samplesCodeIssue","thumb-down"],["Altra","otherDown","thumb-down"]],["Ultimo aggiornamento 2025-08-28 UTC."],[],[],null,["Gemini API using Firebase AI Logic \nplat_ios plat_android plat_web plat_flutter plat_unity \nBuild AI-powered mobile and web apps and features with the Gemini and Imagen models using Firebase AI Logic \n\nFirebase AI Logic gives you access to the latest generative AI models from\nGoogle: the Gemini models and Imagen models.\n\nIf you need to call the Gemini API or Imagen API directly\nfrom your mobile or web app --- rather than server-side --- you can use the\nFirebase AI Logic client SDKs. These client SDKs are built\nspecifically for use with mobile and web apps, offering security options against\nunauthorized clients as well as integrations with other Firebase services.\n\n**These client SDKs are available in\nSwift for Apple platforms, Kotlin \\& Java for Android, JavaScript for web,\nDart for Flutter, and Unity.**\n\n\n| **Firebase AI Logic and its client SDKs were\n| formerly called \"Vertex AI in Firebase\".** In May 2025, we [renamed and\n| repackaged our services into Firebase AI Logic](/docs/ai-logic/faq-and-troubleshooting#renamed-product) to better reflect our expanded services and features --- for example, we now support the Gemini Developer API!\n\n\u003cbr /\u003e\n\nWith these client SDKs, you can add AI personalization to apps, build an AI chat\nexperience, create AI-powered optimizations and automation, and much more!\n\n[Get started](/docs/ai-logic/get-started)\n\n\u003cbr /\u003e\n\n**Need more flexibility or server-side integration?** \n\n[Genkit](https://genkit.dev/) is Firebase's open-source\nframework for sophisticated server-side AI development with broad access to\nmodels from Google, OpenAI, Anthropic, and more. It includes more advanced AI\nfeatures and dedicated local tooling.\n\nKey capabilities\n\n|---------------------------------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| Multimodal and natural language input | The [Gemini models](/docs/ai-logic/models) are multimodal, so prompts sent to the Gemini API can include text, images, PDFs, video, and audio. Some Gemini models can also generate multimodal *output* . Both the Gemini and Imagen models can be prompted with natural language input. |\n| Growing suite of capabilities | With the SDKs, you can call the Gemini API or Imagen API directly from your mobile or web app to [build AI chat experiences](/docs/ai-logic/chat), [generate images,](/docs/ai-logic/generate-images-imagen) use tools (like [function calling](/docs/ai-logic/function-calling) and [grounding with Google Search](/docs/ai-logic/grounding-google-search)), [stream multimodal input and output (including audio)](/docs/ai-logic/live-api), and more. |\n| Security and abuse prevention for production apps | Use [Firebase App Check](/docs/ai-logic/app-check) to help protect the APIs that access the Gemini and Imagen models from abuse by unauthorized clients. Firebase AI Logic also has [rate limits per user](/docs/ai-logic/faq-and-troubleshooting#rate-limits-per-user) *by default*, and these per-user rate limits are fully configurable. |\n| Robust infrastructure | Take advantage of scalable infrastructure that's built for use with mobile and web apps, like [managing files with Cloud Storage for Firebase](/docs/ai-logic/solutions/cloud-storage), managing structured data with Firebase database offerings (like [Cloud Firestore](/docs/firestore)), and dynamically setting run-time configurations with [Firebase Remote Config](/docs/ai-logic/solutions/remote-config). |\n\nHow does it work?\n\nFirebase AI Logic provides client SDKs, a proxy service, and other features\nwhich allow you to access Google's generative AI models to build AI features in\nyour mobile and web apps.\n\nSupport for Google models and \"Gemini API\" providers\n\nWe support all the latest Gemini models and Imagen 3 models,\nand you choose your preferred \"Gemini API\" provider to access these models.\nWe support both the Gemini Developer API and\nVertex AI Gemini API. Learn about the\n[differences between using the two API providers](/docs/ai-logic/faq-and-troubleshooting#differences-between-gemini-api-providers).\n\nAnd if you choose to use the Gemini Developer API, you can take\nadvantage of their \"free tier\" to get you up and running fast.\n\nMobile \\& web client SDKs\n\nYou send requests to the models directly from your mobile or web app using our\nFirebase AI Logic client SDKs, available in\nSwift for Apple platforms, Kotlin \\& Java for Android, JavaScript for Web,\nDart for Flutter, and Unity.\n\nIf you have both of the Gemini API providers set up in your Firebase\nproject, then you can switch between API providers just by enabling the other\nAPI and changing a few lines of initialization code.\n\nAdditionally, our client SDK for Web offers experimental access to\n[hybrid and on-device inference for web apps](/docs/ai-logic/hybrid-on-device-inference)\nrunning on Chrome on desktop. This configuration allows your app to use the\non-device model when it's available, but fall back seamlessly to the\ncloud-hosted model when needed.\n\nProxy service\n\nOur proxy service acts as a gateway between the client and your chosen\nGemini API provider (and Google's models). It provides services and\nintegrations that are important for mobile and web apps. For example, you can\n[set up Firebase App Check](/docs/ai-logic/app-check) to help protect your\nchosen API provider and your backend resources from abuse by unauthorized\nclients.\n\nThis is particularly critical if you chose to use the\nGemini Developer API because our proxy service and this App Check\nintegration make sure that your Gemini API key stays on the server and\nis *not* embedded in your apps' codebase.\n\nImplementation path\n\n|---|---------------------------------------------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| | Set up your Firebase project and connect your app to Firebase | Use the guided workflow in the [**Firebase AI Logic** page](https://console.firebase.google.com/project/_/ailogic) of the Firebase console to set up your project (including enabling the required APIs for your chosen Gemini API provider), register your app with your Firebase project, and then add your Firebase configuration to your app. |\n| | Install the SDK and initialize | Install the Firebase AI Logic SDK that's specific to your app's platform, and then initialize the service and create a model instance in your app. |\n| | Send prompt requests to the Gemini and Imagen models | Use the SDKs to send text-only or multimodal prompts to a Gemini model to generate [text and code](/docs/ai-logic/generate-text), [structured output (like JSON)](/docs/ai-logic/generate-structured-output) and [images](/docs/ai-logic/generate-images-gemini). Alternatively, you can also prompt an Imagen model to [generate images](/docs/ai-logic/generate-images-imagen). Build richer experiences with [multi-turn chat](/docs/ai-logic/chat), [bidirectional streaming of text and audio](/docs/ai-logic/live-api), and [function calling](/docs/ai-logic/function-calling). |\n| | Prepare for production | Implement important integrations for mobile and web apps, like protecting the API from abuse with [Firebase App Check](/docs/ai-logic/app-check) and using [Firebase Remote Config](/docs/ai-logic/solutions/remote-config) to update parameters in your code remotely (like model name). |\n\nNext steps\n\nGet started with accessing a model from your mobile or web app\n\n[Go to Getting Started guide](/docs/ai-logic/get-started)\n\n\nLearn more about the supported models Learn about the [models available for various use cases](/docs/ai-logic/models) and their [quotas](/docs/ai-logic/quotas) and [pricing](/docs/ai-logic/pricing).\n\n\u003cbr /\u003e"]]