앱을 출시하고 실제 최종 사용자가 생성형 AI 기능과 상호작용할 준비가 되면 권장사항 및 중요한 고려사항 체크리스트를 검토하세요.
일반
Firebase를 사용하는 앱의 일반 출시 체크리스트 검토
이 Firebase 출시 체크리스트에서는 Firebase 앱을 프로덕션에 출시하기 전에 따라야 할 중요한 권장사항을 설명합니다.
Firebase 프로젝트가 권장사항을 준수하는지 확인
예를 들어 개발, 테스트, 프로덕션에 서로 다른 Firebase 프로젝트를 사용해야 합니다. 프로젝트 관리에 관한 권장사항을 자세히 검토하세요.
액세스 및 보안
Firebase를 사용하는 앱의 일반 보안 체크리스트 검토
이 보안 체크리스트에서는 Firebase 앱 및 서비스의 액세스 및 보안에 관한 중요한 권장사항을 설명합니다.
Firebase App Check시행 시작
Firebase App Check는 Gemini 및 Imagen 모델에 액세스할 수 있는 API를 보호합니다.
App Check는 요청이 실제 앱과 변조되지 않은 인증된 기기에서 전송되었는지 확인합니다. Apple 플랫폼 (DeviceCheck 또는 App Attest), Android (Play Integrity), 웹 (reCAPTCHA Enterprise)의 증명 제공자를 지원하며 Flutter 및 Unity 앱의 이러한 모든 제공자를 지원합니다.
프로덕션 앱에서는 미리보기 또는 실험용 버전이나 자동 업데이트 별칭이 아닌 안정화 모델 버전 (예: gemini-2.0-flash-001)만 사용하세요.
자동 업데이트 안정화 별칭이 안정화 버전을 가리키더라도 새 안정화 버전이 출시될 때마다 가리키는 실제 모델 버전이 자동으로 변경되므로 예상치 못한 동작이나 응답이 발생할 수 있습니다.
또한 미리보기 및 실험 버전은 프로토타입 제작 중에만 권장됩니다.
Firebase Remote Config 설정 및 사용
Remote Config를 사용하면 코드에서 값을 하드코딩하는 대신 클라우드에서 생성형 AI 기능의 중요한 구성을 제어할 수 있습니다. 즉, 새 버전의 앱을 출시하지 않고도 구성을 업데이트할 수 있습니다. Remote Config를 사용하면 다양한 작업을 할 수 있지만, 생성형 AI 기능을 위해 원격으로 제어하는 것이 권장되는 주요 값은 다음과 같습니다.
앱을 최신 상태로 유지하세요.
모델 이름: 새 모델이 출시되거나 다른 모델이 단종되면 앱에서 사용하는 모델을 업데이트합니다.
클라이언트 속성을 기반으로 값을 조정하거나 테스트 또는 사용자로부터 받은 의견을 반영합니다.
모델 구성: 온도, 최대 출력 토큰 등을 조정합니다.
안전 설정: 차단되는 대답이 너무 많거나 사용자가 유해한 대답을 신고하는 경우 안전 설정을 조정합니다.
시스템 요청 사항 및 제공하는 프롬프트: 모델에 전송하는 추가 컨텍스트를 조정하여 모델의 대답과 동작을 유도합니다. 예를 들어 특정 클라이언트 유형에 맞게 프롬프트를 조정하거나, 기존 사용자의 응답을 생성하는 데 사용되는 프롬프트와 다른 신규 사용자를 위한 프롬프트를 맞춤설정할 수 있습니다.
선택적으로 Remote Config에서 minimum_version 매개변수를 설정하여 앱의 현재 버전을 Remote Config에서 정의된 최신 버전과 비교하여 사용자에게 업그레이드 알림을 표시하거나 사용자가 업그레이드하도록 강제할 수도 있습니다.
모델에 액세스할 위치 설정
Vertex AI Gemini API을 API 제공자로 사용하는 경우에만 사용할 수 있습니다.
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["필요한 정보가 없음","missingTheInformationINeed","thumb-down"],["너무 복잡함/단계 수가 너무 많음","tooComplicatedTooManySteps","thumb-down"],["오래됨","outOfDate","thumb-down"],["번역 문제","translationIssue","thumb-down"],["샘플/코드 문제","samplesCodeIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2025-09-02(UTC)"],[],[],null,["\u003cbr /\u003e\n\nWhen you're ready to launch your app and have real end users interact with your\ngenerative AI features, make sure to review this checklist of best practices and\nimportant considerations.\n| You can complete many of these checklist items as soon as you start to seriously develop your app and well before launch. \n| **Most importantly, you should enable\n| [Firebase App Check](/docs/ai-logic/app-check)\n| to help secure your app and configure\n| [Firebase Remote Config](/docs/ai-logic/solutions/remote-config)\n| to allow on-demand changes to AI parameters (like model name) without an app\n| update.**\n\nGeneral\n\nReview the general launch checklist for apps that use Firebase\n\nThis [Firebase launch checklist](/support/guides/launch-checklist) describes\nimportant best practices before launching any Firebase app to production.\n\nMake sure your Firebase projects follow best practices\n\nFor example, make sure that you use different Firebase projects for development,\ntesting, and production. Review more best practices for\n[managing your projects](/support/guides/launch-checklist#projects-follow-best-practices).\n\nAccess and security\n\nReview the general security checklist for apps that use Firebase\n\nThis [security checklist](/support/guides/security-checklist) describes\nimportant best practices for access and security for Firebase apps and services.\n\nStart *enforcing* Firebase App Check\n\n[Firebase App Check](/docs/ai-logic/app-check) helps protect the APIs that\ngive you access to the Gemini and Imagen models.\nApp Check verifies that requests are from your actual app and an authentic,\nuntampered device. It supports attestation providers for\nApple platforms (DeviceCheck or App Attest), Android (Play Integrity), and\nWeb (reCAPTCHA Enterprise), and it supports all these providers for Flutter and\nUnity apps, as well.\n\nAlso, to\n[prepare for upcoming enhanced protection from App Check](/docs/ai-logic/app-check#enhanced-protection)\nthrough *replay protection*, we recommend enabling the usage of\nlimited-use tokens in your apps.\n\nSet up restrictions for your Firebase API keys\n\n- Review each Firebase API key's\n [\"API restrictions\"](https://cloud.google.com/docs/authentication/api-keys#adding_api_restrictions)\n allowlist:\n\n - Make sure that the Firebase AI Logic API is in the\n allowlist.\n\n - Make sure that the only other APIs in the key's allowlist are for Firebase\n services that you use in your app. See the\n [list of which APIs are required to be on the allowlist for each product](/docs/projects/api-keys#faq-required-apis-for-restricted-firebase-api-key).\n\n- Set\n [\"Application restrictions\"](https://cloud.google.com/docs/authentication/api-keys#adding_application_restrictions)\n to help restrict usage of each Firebase API key to only requests from your app\n (for example, a matching bundle ID for the Apple app). Note that even if you\n restrict your key, Firebase App Check is still strongly recommended.\n\nNote that Firebase-related APIs use API keys only to *identify* the Firebase\nproject or app, *not for authorization* to call the API.\n\nBilling, monitoring, and quota\n\nAvoid surprise bills\n\nIf your Firebase project is on the pay-as-you-go Blaze pricing plan, then\n[monitor your usage](/docs/ai-logic/monitoring) and\n[set up budget alerts](/docs/projects/billing/avoid-surprise-bills#set-up-budget-alert-emails).\n\nSet up AI monitoring in the Firebase console\n\n[Set up AI monitoring](/docs/ai-logic/monitoring#ai-monitoring-in-console) to\ngain visibility into key performance metrics, like requests, latency, errors,\nand token usage. AI monitoring also helps you inspect and debug your\nFirebase AI Logic features by surfacing individual traces.\n\nReview your quotas for the required underlying APIs\n\n- Make sure that you\n [understand the quotas for each required API](/docs/ai-logic/quotas#understand-quotas).\n\n- [Set rate limits per user](/docs/ai-logic/quotas#understand-quotas-vertexai-in-firebase)\n (the default is 100 RPM).\n\n- [Edit quota or request a quota increase](/docs/ai-logic/quotas#edit-quota-or-request-quota-increase),\n as needed.\n\nManagement of configurations\n\nUse a stable model version in your production app\n\nIn your production app, only use\n[*stable* model versions](/docs/ai-logic/models#versions) (like\n`gemini-2.0-flash-001`), not a *preview* or *experimental* version or\nan *auto-updated* alias.\n\nEven though an *auto-updated* stable alias points to a stable version, the\nactual model version it points to will automatically change whenever a new\nstable version is released, which could mean unexpected behavior or responses.\nAlso, *preview* and *experimental* versions are only recommended during\nprototyping.\n| **Important:** We strongly recommend using [Firebase Remote Config](/docs/ai-logic/solutions/remote-config) to control and update the model name used in your app (see the next section).\n\nSet up and use Firebase Remote Config\n\nWith [Remote Config](/docs/ai-logic/solutions/remote-config),\nyou can control important configurations for your generative AI feature\n*in the cloud* rather than hard-coding values in your\ncode. This means that you can update your configuration without releasing\na new version of your app. You can do a lot with Remote Config, but here\nare the top values that we recommend you control remotely for your generative\nAI feature:\n\n- Keep your app up-to-date.\n\n - **Model name**: Update the model your app uses as new models are released or others are discontinued.\n- Adjust values and inputs based on client attributes, or to accommodate\n feedback from testing or users.\n\n - **Model configuration**: Adjust the temperature, max output tokens, and\n more.\n\n - **Safety settings**: Adjust safety settings if too many responses are\n getting blocked or if users report harmful responses.\n\n - **System instructions** and **any prompts that you provide**: Adjust the\n additional context that you're sending to the model to steer its\n responses and behavior. For example, you might want to tailor prompts for\n specific client types, or personalize prompts for new users that differ from\n those used to generate responses for existing users.\n\nYou could also optionally set a `minimum_version` parameter in Remote Config\nto compare the app's current version with the Remote Config-defined latest\nversion, to either show an upgrade notification to users or force users to\nupgrade.\n\nSet the location for accessing the model\n\n\n|----------------------------------------------------------------------------|\n| *Only available when using the Vertex AI Gemini API as your API provider.* |\n\n\u003cbr /\u003e\n\n[Setting a location for accessing the model](/docs/ai-logic/locations) can help\nwith costs as well as help prevent latency for your users.\n\nIf you don't specify a location, the default is `us-central1`. You can set this\nlocation during initialization, or you can optionally\n[use Firebase Remote Config to dynamically change the location based on each user's location](/docs/ai-logic/solutions/remote-config)."]]