Gemini API का इस्तेमाल करके, सिर्फ़ टेक्स्ट वाले प्रॉम्प्ट से टेक्स्ट जनरेट करना


Vertex AI in Firebase SDK टूल का इस्तेमाल करके, अपने ऐप्लिकेशन से Gemini API को कॉल करते समय, Gemini मॉडल को सिर्फ़ टेक्स्ट वाले इनपुट के आधार पर टेक्स्ट जनरेट करने के लिए कहा जा सकता है.

  • वैकल्पिक तौर पर, Gemini API के "Google AI" वर्शन के साथ एक्सपेरिमेंट करें
    Google AI Studio और Google AI क्लाइंट SDK टूल का इस्तेमाल करके, सीमाओं के अंदर और जहां उपलब्ध हो वहां बिना किसी शुल्क के ऐक्सेस पाएं. इन SDK टूल का इस्तेमाल, मोबाइल और वेब ऐप्लिकेशन में सिर्फ़ प्रोटोटाइप बनाने के लिए किया जाना चाहिए.

    Gemini API के काम करने के तरीके के बारे में जानने के बाद, हमारे Vertex AI in Firebase SDK टूल पर माइग्रेट करें (यह दस्तावेज़). इसमें मोबाइल और वेब ऐप्लिकेशन के लिए कई ज़रूरी सुविधाएं हैं. जैसे, Firebase App Check का इस्तेमाल करके एपीआई को गलत इस्तेमाल से बचाना और अनुरोधों में बड़ी मीडिया फ़ाइलों के लिए सहायता.

  • वैकल्पिक तौर पर, Vertex AI Gemini API के सर्वर साइड को कॉल करें (जैसे, Python, Node.js या Go के साथ)
    Gemini API के लिए, सर्वर साइड Vertex AI SDK टूल, Genkit या Firebase Extensions का इस्तेमाल करें.

शुरू करने से पहले

अगर आपने अब तक ऐसा नहीं किया है, तो शुरू करने से जुड़ी गाइड पढ़ें. इसमें, Firebase प्रोजेक्ट सेट अप करने, अपने ऐप्लिकेशन को Firebase से कनेक्ट करने, SDK टूल जोड़ने, Vertex AI सेवा को शुरू करने, और GenerativeModel इंस्टेंस बनाने का तरीका बताया गया है.

सिर्फ़ टेक्स्ट वाले इनपुट से टेक्स्ट जनरेट करना

Gemini API को सिर्फ़ टेक्स्ट वाले इनपुट से कॉल किया जा सकता है. इन कॉल के लिए, आपको ऐसे मॉडल का इस्तेमाल करना होगा जो सिर्फ़ टेक्स्ट वाले प्रॉम्प्ट (जैसे, Gemini 2.0 Flash) के साथ काम करता हो.

चुनें कि आपको जवाब स्ट्रीम करना है (generateContentStream) या पूरा नतीजा जनरेट होने तक जवाब का इंतज़ार करना है (generateContent).

मॉडल जनरेशन के पूरे नतीजे का इंतज़ार किए बिना, तेज़ी से इंटरैक्शन हासिल किए जा सकते हैं. इसके बजाय, कुछ नतीजों को मैनेज करने के लिए स्ट्रीमिंग का इस्तेमाल करें.

इस उदाहरण में, सिर्फ़ टेक्स्ट वाले प्रॉम्प्ट अनुरोध से जनरेट किए गए टेक्स्ट को स्ट्रीम करने के लिए, generateContentStream का इस्तेमाल करने का तरीका बताया गया है:

import FirebaseVertexAI

// Initialize the Vertex AI service
let vertex = VertexAI.vertexAI()

// Create a `GenerativeModel` instance with a model that supports your use case
let model = vertex.generativeModel(modelName: "gemini-2.0-flash")

// Provide a prompt that contains text
let prompt = "Write a story about a magic backpack."

// To stream generated text output, call generateContentStream with the text input
let contentStream = try model.generateContentStream(prompt)
for try await chunk in contentStream {
  if let text = chunk.text {
    print(text)
  }
}

इसके अलावा, स्ट्रीम करने के बजाय पूरे नतीजे के लिए इंतज़ार किया जा सकता है. नतीजा सिर्फ़ तब दिखता है, जब मॉडल, जनरेट करने की पूरी प्रोसेस पूरी कर लेता है.

इस उदाहरण में, सिर्फ़ टेक्स्ट वाले प्रॉम्प्ट अनुरोध से टेक्स्ट जनरेट करने के लिए, generateContent का इस्तेमाल करने का तरीका बताया गया है:

import FirebaseVertexAI

// Initialize the Vertex AI service
let vertex = VertexAI.vertexAI()

// Create a `GenerativeModel` instance with a model that supports your use case
let model = vertex.generativeModel(modelName: "gemini-2.0-flash")

// Provide a prompt that contains text
let prompt = "Write a story about a magic backpack."

// To generate text output, call generateContent with the text input
let response = try await model.generateContent(prompt)
print(response.text ?? "No text in response.")

अपने इस्तेमाल के उदाहरण और ऐप्लिकेशन के हिसाब से, सही मॉडल और जगह चुनने का तरीका जानें.

तुम और क्या कर सकती हो?

अन्य सुविधाएं आज़माएं

कॉन्टेंट जनरेशन को कंट्रोल करने का तरीका जानें

Vertex AI Studio का इस्तेमाल करके, प्रॉम्प्ट और मॉडल कॉन्फ़िगरेशन के साथ भी एक्सपेरिमेंट किया जा सकता है.

इस्तेमाल किए जा सकने वाले मॉडल के बारे में ज़्यादा जानें

अलग-अलग कामों के लिए उपलब्ध मॉडल, उनके कोटे, और कीमत के बारे में जानें.


Vertex AI in Firebase के साथ अपने अनुभव के बारे में सुझाव/राय देना या शिकायत करना