Firebase AI Logic kullanarak Gemini ve Imagen modelleriyle yapay zeka destekli mobil ve web uygulamaları ile özellikler oluşturun.
Firebase AI Logic ile Google'ın en yeni üretken yapay zeka modellerine (Gemini ve Imagen modelleri) erişebilirsiniz.
Gemini API veya Imagen API işlevini sunucu tarafı yerine doğrudan mobil ya da web uygulamanızdan çağırmanız gerekiyorsa Firebase AI Logic istemci SDK'larını kullanabilirsiniz. Bu istemci SDK'ları, mobil ve web uygulamalarıyla kullanılmak üzere özel olarak oluşturulmuştur. Yetkisiz istemcilere karşı güvenlik seçeneklerinin yanı sıra diğer Firebase hizmetleriyle entegrasyonlar sunar.
Bu istemci SDK'ları Apple platformları için Swift, Android için Kotlin ve Java, web için JavaScript, Flutter için Dart ve Unity'de kullanılabilir.
Bu istemci SDK'ları ile uygulamalara yapay zeka kişiselleştirme ekleyebilir, yapay zeka sohbet deneyimi oluşturabilir, yapay zeka destekli optimizasyonlar ve otomasyonlar oluşturabilir ve daha birçok şey yapabilirsiniz.
Daha fazla esnekliğe veya sunucu tarafı entegrasyonuna mı ihtiyacınız var? Genkit, Google, OpenAI, Anthropic ve diğerlerinin modellerine geniş erişim imkanı sunan, gelişmiş sunucu tarafı yapay zeka geliştirmeye yönelik Firebase'in açık kaynaklı çerçevesidir. Bu sürümde daha gelişmiş yapay zeka özellikleri ve özel yerel araçlar yer alıyor.
Temel özellikler
Çok formatlı ve doğal dil girişi
Gemini modelleri çok formatlıdır. Bu nedenle Gemini API'a gönderilen istemler metin, resim, PDF, video ve ses içerebilir. Bazı Gemini modeller çok formatlı çıktılar da üretebilir.
Hem Gemini hem de Imagen modelleri doğal dil girişiyle istemlenebilir.
Üretim uygulamaları için güvenlik ve kötüye kullanımı önleme
Gemini ve Imagen modellerine erişen API'leri yetkisiz istemcilerin kötüye kullanımına karşı korumak için Firebase App Check kullanın.
Firebase AI Logic ayrıca kullanıcı başına hız sınırlarınavarsayılan olarak sahiptir ve bu kullanıcı başına hız sınırları tamamen yapılandırılabilir.
Sağlam altyapı
Mobil ve web uygulamalarıyla kullanılmak üzere oluşturulmuş ölçeklenebilir altyapıdan yararlanın. Örneğin, Cloud Storage for Firebase ile dosyaları yönetin, Firebase veritabanı teklifleriyle (Cloud Firestore gibi) yapılandırılmış verileri yönetin ve Firebase Remote Config ile çalışma zamanı yapılandırmalarını dinamik olarak ayarlayın.
Nasıl çalışır?
Firebase AI Logic, mobil ve web uygulamalarınızda yapay zeka özellikleri oluşturmak için Google'ın üretken yapay zeka modellerine erişmenize olanak tanıyan istemci SDK'ları, bir proxy hizmeti ve diğer özellikler sunar.
Google modelleri ve "Gemini API" sağlayıcıları için destek
En yeni Gemini modellerini ve Imagen 3 modellerini destekliyoruz. Bu modellere erişmek için tercih ettiğiniz "Gemini API" sağlayıcıyı seçebilirsiniz.
Hem Gemini Developer API hem de Vertex AI Gemini API desteklenir. İki API sağlayıcısını kullanma arasındaki farklar hakkında bilgi edinin.
Gemini Developer API kullanmayı tercih ederseniz hızlı bir şekilde çalışmaya başlamak için "ücretsiz katman"dan yararlanabilirsiniz.
Mobil ve web istemcisi SDK'ları
Apple platformları için Swift, Android için Kotlin ve Java, Web için JavaScript, Flutter için Dart ve Unity'de kullanılabilen Firebase AI Logic istemci SDK'larımızı kullanarak doğrudan mobil veya web uygulamanızdan modellere istek gönderirsiniz.
Firebase projenizde her iki Gemini API sağlayıcıyı da ayarladıysanız diğer API'yi etkinleştirip birkaç satır ilk kullanıma hazırlama kodunu değiştirerek API sağlayıcılar arasında geçiş yapabilirsiniz.
Ayrıca, Web için istemci SDK'mız, masaüstünde Chrome'da çalışan web uygulamaları için hibrit ve cihaz üzerinde çıkarım özelliklerine deneysel erişim sunar. Bu yapılandırma, uygulamanızın kullanılabilir olduğunda cihaz üzerinde modeli kullanmasına, ancak gerektiğinde sorunsuz bir şekilde bulutta barındırılan modele geri dönmesine olanak tanır.
Proxy hizmeti
Proxy hizmetimiz, istemci ile seçtiğiniz Gemini API sağlayıcı (ve Google'ın modelleri) arasında bir ağ geçidi görevi görür. Mobil ve web uygulamaları için önemli olan hizmetler ve entegrasyonlar sağlar. Örneğin, ayarlayarakFirebase App Check seçtiğiniz API sağlayıcınızı ve arka uç kaynaklarınızı yetkisiz istemcilerin kötüye kullanımına karşı koruyabilirsiniz.
Proxy hizmetimiz ve bu App Check
entegrasyonu, Gemini API anahtarınızın sunucuda kalmasını ve uygulamalarınızın kod tabanına yerleştirilmemesini sağladığı için bu durum, Gemini Developer API kullanmayı seçtiyseniz özellikle önemlidir.
Uygulama yolu
Firebase projenizi ayarlama ve uygulamanızı Firebase'e bağlama
Projenizi ayarlamak (seçtiğiniz Gemini API sağlayıcısı için gerekli API'leri etkinleştirmek dahil), uygulamanızı Firebase projenize kaydetmek ve ardından Firebase yapılandırmanızı uygulamanıza eklemek için Firebase konsolunun Firebase AI Logic sayfasındaki rehberli iş akışını kullanın.
SDK'yı yükleme ve başlatma
Uygulamanızın platformuna özel Firebase AI Logic SDK'sını yükleyin, ardından hizmeti başlatın ve uygulamanızda bir model örneği oluşturun.
Gemini ve Imagen modellerine istem istekleri gönderme
Mobil ve web uygulamaları için önemli entegrasyonları uygulayın. Örneğin, Firebase App Check ile API'yi kötüye kullanıma karşı koruyun ve kodunuzdaki parametreleri (ör. model adı) uzaktan güncellemek için Firebase Remote Config kullanın.
Sonraki adımlar
Mobil uygulamanızdan veya web uygulamanızdan bir modele erişmeye başlama
[[["Anlaması kolay","easyToUnderstand","thumb-up"],["Sorunumu çözdü","solvedMyProblem","thumb-up"],["Diğer","otherUp","thumb-up"]],[["İhtiyacım olan bilgiler yok","missingTheInformationINeed","thumb-down"],["Çok karmaşık / çok fazla adım var","tooComplicatedTooManySteps","thumb-down"],["Güncel değil","outOfDate","thumb-down"],["Çeviri sorunu","translationIssue","thumb-down"],["Örnek veya kod sorunu","samplesCodeIssue","thumb-down"],["Diğer","otherDown","thumb-down"]],["Son güncelleme tarihi: 2025-08-28 UTC."],[],[],null,["Gemini API using Firebase AI Logic \nplat_ios plat_android plat_web plat_flutter plat_unity \nBuild AI-powered mobile and web apps and features with the Gemini and Imagen models using Firebase AI Logic \n\nFirebase AI Logic gives you access to the latest generative AI models from\nGoogle: the Gemini models and Imagen models.\n\nIf you need to call the Gemini API or Imagen API directly\nfrom your mobile or web app --- rather than server-side --- you can use the\nFirebase AI Logic client SDKs. These client SDKs are built\nspecifically for use with mobile and web apps, offering security options against\nunauthorized clients as well as integrations with other Firebase services.\n\n**These client SDKs are available in\nSwift for Apple platforms, Kotlin \\& Java for Android, JavaScript for web,\nDart for Flutter, and Unity.**\n\n\n| **Firebase AI Logic and its client SDKs were\n| formerly called \"Vertex AI in Firebase\".** In May 2025, we [renamed and\n| repackaged our services into Firebase AI Logic](/docs/ai-logic/faq-and-troubleshooting#renamed-product) to better reflect our expanded services and features --- for example, we now support the Gemini Developer API!\n\n\u003cbr /\u003e\n\nWith these client SDKs, you can add AI personalization to apps, build an AI chat\nexperience, create AI-powered optimizations and automation, and much more!\n\n[Get started](/docs/ai-logic/get-started)\n\n\u003cbr /\u003e\n\n**Need more flexibility or server-side integration?** \n\n[Genkit](https://genkit.dev/) is Firebase's open-source\nframework for sophisticated server-side AI development with broad access to\nmodels from Google, OpenAI, Anthropic, and more. It includes more advanced AI\nfeatures and dedicated local tooling.\n\nKey capabilities\n\n|---------------------------------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| Multimodal and natural language input | The [Gemini models](/docs/ai-logic/models) are multimodal, so prompts sent to the Gemini API can include text, images, PDFs, video, and audio. Some Gemini models can also generate multimodal *output* . Both the Gemini and Imagen models can be prompted with natural language input. |\n| Growing suite of capabilities | With the SDKs, you can call the Gemini API or Imagen API directly from your mobile or web app to [build AI chat experiences](/docs/ai-logic/chat), [generate images,](/docs/ai-logic/generate-images-imagen) use tools (like [function calling](/docs/ai-logic/function-calling) and [grounding with Google Search](/docs/ai-logic/grounding-google-search)), [stream multimodal input and output (including audio)](/docs/ai-logic/live-api), and more. |\n| Security and abuse prevention for production apps | Use [Firebase App Check](/docs/ai-logic/app-check) to help protect the APIs that access the Gemini and Imagen models from abuse by unauthorized clients. Firebase AI Logic also has [rate limits per user](/docs/ai-logic/faq-and-troubleshooting#rate-limits-per-user) *by default*, and these per-user rate limits are fully configurable. |\n| Robust infrastructure | Take advantage of scalable infrastructure that's built for use with mobile and web apps, like [managing files with Cloud Storage for Firebase](/docs/ai-logic/solutions/cloud-storage), managing structured data with Firebase database offerings (like [Cloud Firestore](/docs/firestore)), and dynamically setting run-time configurations with [Firebase Remote Config](/docs/ai-logic/solutions/remote-config). |\n\nHow does it work?\n\nFirebase AI Logic provides client SDKs, a proxy service, and other features\nwhich allow you to access Google's generative AI models to build AI features in\nyour mobile and web apps.\n\nSupport for Google models and \"Gemini API\" providers\n\nWe support all the latest Gemini models and Imagen 3 models,\nand you choose your preferred \"Gemini API\" provider to access these models.\nWe support both the Gemini Developer API and\nVertex AI Gemini API. Learn about the\n[differences between using the two API providers](/docs/ai-logic/faq-and-troubleshooting#differences-between-gemini-api-providers).\n\nAnd if you choose to use the Gemini Developer API, you can take\nadvantage of their \"free tier\" to get you up and running fast.\n\nMobile \\& web client SDKs\n\nYou send requests to the models directly from your mobile or web app using our\nFirebase AI Logic client SDKs, available in\nSwift for Apple platforms, Kotlin \\& Java for Android, JavaScript for Web,\nDart for Flutter, and Unity.\n\nIf you have both of the Gemini API providers set up in your Firebase\nproject, then you can switch between API providers just by enabling the other\nAPI and changing a few lines of initialization code.\n\nAdditionally, our client SDK for Web offers experimental access to\n[hybrid and on-device inference for web apps](/docs/ai-logic/hybrid-on-device-inference)\nrunning on Chrome on desktop. This configuration allows your app to use the\non-device model when it's available, but fall back seamlessly to the\ncloud-hosted model when needed.\n\nProxy service\n\nOur proxy service acts as a gateway between the client and your chosen\nGemini API provider (and Google's models). It provides services and\nintegrations that are important for mobile and web apps. For example, you can\n[set up Firebase App Check](/docs/ai-logic/app-check) to help protect your\nchosen API provider and your backend resources from abuse by unauthorized\nclients.\n\nThis is particularly critical if you chose to use the\nGemini Developer API because our proxy service and this App Check\nintegration make sure that your Gemini API key stays on the server and\nis *not* embedded in your apps' codebase.\n\nImplementation path\n\n|---|---------------------------------------------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| | Set up your Firebase project and connect your app to Firebase | Use the guided workflow in the [**Firebase AI Logic** page](https://console.firebase.google.com/project/_/ailogic) of the Firebase console to set up your project (including enabling the required APIs for your chosen Gemini API provider), register your app with your Firebase project, and then add your Firebase configuration to your app. |\n| | Install the SDK and initialize | Install the Firebase AI Logic SDK that's specific to your app's platform, and then initialize the service and create a model instance in your app. |\n| | Send prompt requests to the Gemini and Imagen models | Use the SDKs to send text-only or multimodal prompts to a Gemini model to generate [text and code](/docs/ai-logic/generate-text), [structured output (like JSON)](/docs/ai-logic/generate-structured-output) and [images](/docs/ai-logic/generate-images-gemini). Alternatively, you can also prompt an Imagen model to [generate images](/docs/ai-logic/generate-images-imagen). Build richer experiences with [multi-turn chat](/docs/ai-logic/chat), [bidirectional streaming of text and audio](/docs/ai-logic/live-api), and [function calling](/docs/ai-logic/function-calling). |\n| | Prepare for production | Implement important integrations for mobile and web apps, like protecting the API from abuse with [Firebase App Check](/docs/ai-logic/app-check) and using [Firebase Remote Config](/docs/ai-logic/solutions/remote-config) to update parameters in your code remotely (like model name). |\n\nNext steps\n\nGet started with accessing a model from your mobile or web app\n\n[Go to Getting Started guide](/docs/ai-logic/get-started)\n\n\nLearn more about the supported models Learn about the [models available for various use cases](/docs/ai-logic/models) and their [quotas](/docs/ai-logic/quotas) and [pricing](/docs/ai-logic/pricing).\n\n\u003cbr /\u003e"]]