আপনি একটি জেমিনি মডেলকে একটি টেক্সট-অনলি প্রম্পট বা একটি মাল্টিমোডাল প্রম্পট থেকে টেক্সট তৈরি করতে বলতে পারেন। যখন আপনি Firebase AI Logic ব্যবহার করেন, তখন আপনি সরাসরি আপনার অ্যাপ থেকে এই অনুরোধটি করতে পারেন।
মাল্টিমোডাল প্রম্পটে একাধিক ধরণের ইনপুট অন্তর্ভুক্ত থাকতে পারে (যেমন ছবি সহ টেক্সট, পিডিএফ, প্লেইন-টেক্সট ফাইল, অডিও এবং ভিডিও)।
এই নির্দেশিকাটি দেখায় কিভাবে একটি টেক্সট-অনলি প্রম্পট থেকে এবং একটি ফাইল সহ একটি মৌলিক মাল্টিমোডাল প্রম্পট থেকে টেক্সট তৈরি করতে হয়।
শুধুমাত্র টেক্সট ইনপুটের জন্য কোডে যান মাল্টিমোডাল ইনপুটের জন্য কোডে যান স্ট্রিম করা প্রতিক্রিয়ার জন্য কোডে যান
| টেক্সট নিয়ে কাজ করার জন্য অতিরিক্ত বিকল্পগুলির জন্য অন্যান্য নির্দেশিকা দেখুন। স্ট্রাকচার্ড আউটপুট তৈরি করুন মাল্টি-টার্ন চ্যাট দ্বিমুখী স্ট্রিমিং ডিভাইসে টেক্সট তৈরি করুন টেক্সট থেকে ছবি তৈরি করুন |
শুরু করার আগে
এই পৃষ্ঠায় প্রোভাইডার-নির্দিষ্ট কন্টেন্ট এবং কোড দেখতে আপনার জেমিনি API প্রোভাইডারে ক্লিক করুন। |
যদি আপনি ইতিমধ্যেই না করে থাকেন, তাহলে শুরু করার নির্দেশিকাটি সম্পূর্ণ করুন, যেখানে বর্ণনা করা হয়েছে কিভাবে আপনার Firebase প্রকল্প সেট আপ করবেন, আপনার অ্যাপটি Firebase-এর সাথে সংযুক্ত করবেন, SDK যোগ করবেন, আপনার নির্বাচিত Gemini API প্রদানকারীর জন্য ব্যাকএন্ড পরিষেবা শুরু করবেন এবং একটি GenerativeModel ইনস্ট্যান্স তৈরি করবেন।
শুধুমাত্র টেক্সট ইনপুট থেকে টেক্সট তৈরি করুন
| এই নমুনাটি চেষ্টা করার আগে, আপনার প্রকল্প এবং অ্যাপ সেট আপ করতে এই নির্দেশিকার "শুরু করার আগে" বিভাগটি সম্পূর্ণ করুন। সেই বিভাগে, আপনি আপনার নির্বাচিত Gemini API প্রদানকারীর জন্য একটি বোতামে ক্লিক করবেন যাতে আপনি এই পৃষ্ঠায় প্রদানকারী-নির্দিষ্ট সামগ্রী দেখতে পান । |
আপনি একটি জেমিনি মডেলকে শুধুমাত্র টেক্সট ইনপুট দিয়ে প্রম্পট করে টেক্সট তৈরি করতে বলতে পারেন।
সুইফট
আপনি শুধুমাত্র টেক্সট ইনপুট থেকে টেক্সট তৈরি করতে generateContent() কল করতে পারেন।
import FirebaseAI
// Initialize the Gemini Developer API backend service
let ai = FirebaseAI.firebaseAI(backend: .googleAI())
// Create a `GenerativeModel` instance with a model that supports your use case
let model = ai.generativeModel(modelName: "gemini-2.5-flash")
// Provide a prompt that contains text
let prompt = "Write a story about a magic backpack."
// To generate text output, call generateContent with the text input
let response = try await model.generateContent(prompt)
print(response.text ?? "No text in response.")
Kotlin
আপনি শুধুমাত্র টেক্সট ইনপুট থেকে টেক্সট তৈরি করতে generateContent() কল করতে পারেন।
// Initialize the Gemini Developer API backend service
// Create a `GenerativeModel` instance with a model that supports your use case
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
.generativeModel("gemini-2.5-flash")
// Provide a prompt that contains text
val prompt = "Write a story about a magic backpack."
// To generate text output, call generateContent with the text input
val response = model.generateContent(prompt)
print(response.text)
Java
আপনি শুধুমাত্র টেক্সট ইনপুট থেকে টেক্সট তৈরি করতে generateContent() কল করতে পারেন।
ListenableFuture প্রদান করে।
// Initialize the Gemini Developer API backend service
// Create a `GenerativeModel` instance with a model that supports your use case
GenerativeModel ai = FirebaseAI.getInstance(GenerativeBackend.googleAI())
.generativeModel("gemini-2.5-flash");
// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(ai);
// Provide a prompt that contains text
Content prompt = new Content.Builder()
.addText("Write a story about a magic backpack.")
.build();
// To generate text output, call generateContent with the text input
ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
@Override
public void onSuccess(GenerateContentResponse result) {
String resultText = result.getText();
System.out.println(resultText);
}
@Override
public void onFailure(Throwable t) {
t.printStackTrace();
}
}, executor);
Web
আপনি শুধুমাত্র টেক্সট ইনপুট থেকে টেক্সট তৈরি করতে generateContent() কল করতে পারেন।
import { initializeApp } from "firebase/app";
import { getAI, getGenerativeModel, GoogleAIBackend } from "firebase/ai";
// TODO(developer) Replace the following with your app's Firebase configuration
// See: https://firebase.google.com/docs/web/learn-more#config-object
const firebaseConfig = {
// ...
};
// Initialize FirebaseApp
const firebaseApp = initializeApp(firebaseConfig);
// Initialize the Gemini Developer API backend service
const ai = getAI(firebaseApp, { backend: new GoogleAIBackend() });
// Create a `GenerativeModel` instance with a model that supports your use case
const model = getGenerativeModel(ai, { model: "gemini-2.5-flash" });
// Wrap in an async function so you can use await
async function run() {
// Provide a prompt that contains text
const prompt = "Write a story about a magic backpack."
// To generate text output, call generateContent with the text input
const result = await model.generateContent(prompt);
const response = result.response;
const text = response.text();
console.log(text);
}
run();
Dart
আপনি শুধুমাত্র টেক্সট ইনপুট থেকে টেক্সট তৈরি করতে generateContent() কল করতে পারেন।
import 'package:firebase_ai/firebase_ai.dart';
import 'package:firebase_core/firebase_core.dart';
import 'firebase_options.dart';
// Initialize FirebaseApp
await Firebase.initializeApp(
options: DefaultFirebaseOptions.currentPlatform,
);
// Initialize the Gemini Developer API backend service
// Create a `GenerativeModel` instance with a model that supports your use case
final model =
FirebaseAI.googleAI().generativeModel(model: 'gemini-2.5-flash');
// Provide a prompt that contains text
final prompt = [Content.text('Write a story about a magic backpack.')];
// To generate text output, call generateContent with the text input
final response = await model.generateContent(prompt);
print(response.text);
ঐক্য
আপনি শুধুমাত্র টেক্সট ইনপুট থেকে টেক্সট তৈরি করতে GenerateContentAsync() কল করতে পারেন।
using Firebase;
using Firebase.AI;
// Initialize the Gemini Developer API backend service
var ai = FirebaseAI.GetInstance(FirebaseAI.Backend.GoogleAI());
// Create a `GenerativeModel` instance with a model that supports your use case
var model = ai.GetGenerativeModel(modelName: "gemini-2.5-flash");
// Provide a prompt that contains text
var prompt = "Write a story about a magic backpack.";
// To generate text output, call GenerateContentAsync with the text input
var response = await model.GenerateContentAsync(prompt);
UnityEngine.Debug.Log(response.Text ?? "No text in response.");
মডেল কীভাবে নির্বাচন করবেন তা শিখুনআপনার ব্যবহারের ক্ষেত্রে এবং অ্যাপের জন্য উপযুক্ত।
টেক্সট-এন্ড-ফাইল (মাল্টিমোডাল) ইনপুট থেকে টেক্সট তৈরি করুন
| এই নমুনাটি চেষ্টা করার আগে, আপনার প্রকল্প এবং অ্যাপ সেট আপ করতে এই নির্দেশিকার "শুরু করার আগে" বিভাগটি সম্পূর্ণ করুন। সেই বিভাগে, আপনি আপনার নির্বাচিত Gemini API প্রদানকারীর জন্য একটি বোতামে ক্লিক করবেন যাতে আপনি এই পৃষ্ঠায় প্রদানকারী-নির্দিষ্ট সামগ্রী দেখতে পান । |
আপনি একটি জেমিনি মডেলকে টেক্সট এবং একটি ফাইল প্রম্পট করে টেক্সট জেনারেট করতে বলতে পারেন—প্রতিটি ইনপুট ফাইলের mimeType এবং ফাইল নিজেই প্রদান করে। এই পৃষ্ঠায় পরে ইনপুট ফাইলের জন্য প্রয়োজনীয়তা এবং সুপারিশগুলি খুঁজুন।
নিচের উদাহরণটি ইনলাইন ডেটা (base64-এনকোডেড ফাইল) হিসাবে প্রদত্ত একটি একক ভিডিও ফাইল বিশ্লেষণ করে কীভাবে একটি ফাইল ইনপুট থেকে টেক্সট তৈরি করতে হয় তার মূল বিষয়গুলি দেখায়।
মনে রাখবেন যে এই উদাহরণে ফাইলটি ইনলাইনে প্রদান করা দেখানো হয়েছে, তবে SDK গুলি একটি YouTube URL প্রদানকেও সমর্থন করে।আপনি এই সর্বজনীনভাবে উপলব্ধ ফাইলটি MIME ধরণের
video/mp4( ফাইল দেখুন বা ডাউনলোড করুন ) দিয়ে ব্যবহার করতে পারেন।https://storage.googleapis.com/cloud-samples-data/video/animals.mp4
সুইফট
টেক্সট এবং ভিডিও ফাইলের মাল্টিমোডাল ইনপুট থেকে টেক্সট তৈরি করতে আপনি generateContent() কল করতে পারেন।
import FirebaseAI
// Initialize the Gemini Developer API backend service
let ai = FirebaseAI.firebaseAI(backend: .googleAI())
// Create a `GenerativeModel` instance with a model that supports your use case
let model = ai.generativeModel(modelName: "gemini-2.5-flash")
// Provide the video as `Data` with the appropriate MIME type.
let video = InlineDataPart(data: try Data(contentsOf: videoURL), mimeType: "video/mp4")
// Provide a text prompt to include with the video
let prompt = "What is in the video?"
// To generate text output, call generateContent with the text and video
let response = try await model.generateContent(video, prompt)
print(response.text ?? "No text in response.")
Kotlin
টেক্সট এবং ভিডিও ফাইলের মাল্টিমোডাল ইনপুট থেকে টেক্সট তৈরি করতে আপনি generateContent() কল করতে পারেন।
// Initialize the Gemini Developer API backend service
// Create a `GenerativeModel` instance with a model that supports your use case
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
.generativeModel("gemini-2.5-flash")
val contentResolver = applicationContext.contentResolver
contentResolver.openInputStream(videoUri).use { stream ->
stream?.let {
val bytes = stream.readBytes()
// Provide a prompt that includes the video specified above and text
val prompt = content {
inlineData(bytes, "video/mp4")
text("What is in the video?")
}
// To generate text output, call generateContent with the prompt
val response = model.generateContent(prompt)
Log.d(TAG, response.text ?: "")
}
}
Java
টেক্সট এবং ভিডিও ফাইলের মাল্টিমোডাল ইনপুট থেকে টেক্সট তৈরি করতে আপনি generateContent() কল করতে পারেন।
ListenableFuture প্রদান করে।
// Initialize the Gemini Developer API backend service
// Create a `GenerativeModel` instance with a model that supports your use case
GenerativeModel ai = FirebaseAI.getInstance(GenerativeBackend.googleAI())
.generativeModel("gemini-2.5-flash");
// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(ai);
ContentResolver resolver = getApplicationContext().getContentResolver();
try (InputStream stream = resolver.openInputStream(videoUri)) {
File videoFile = new File(new URI(videoUri.toString()));
int videoSize = (int) videoFile.length();
byte[] videoBytes = new byte[videoSize];
if (stream != null) {
stream.read(videoBytes, 0, videoBytes.length);
stream.close();
// Provide a prompt that includes the video specified above and text
Content prompt = new Content.Builder()
.addInlineData(videoBytes, "video/mp4")
.addText("What is in the video?")
.build();
// To generate text output, call generateContent with the prompt
ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
@Override
public void onSuccess(GenerateContentResponse result) {
String resultText = result.getText();
System.out.println(resultText);
}
@Override
public void onFailure(Throwable t) {
t.printStackTrace();
}
}, executor);
}
} catch (IOException e) {
e.printStackTrace();
} catch (URISyntaxException e) {
e.printStackTrace();
}
Web
টেক্সট এবং ভিডিও ফাইলের মাল্টিমোডাল ইনপুট থেকে টেক্সট তৈরি করতে আপনি generateContent() কল করতে পারেন।
import { initializeApp } from "firebase/app";
import { getAI, getGenerativeModel, GoogleAIBackend } from "firebase/ai";
// TODO(developer) Replace the following with your app's Firebase configuration
// See: https://firebase.google.com/docs/web/learn-more#config-object
const firebaseConfig = {
// ...
};
// Initialize FirebaseApp
const firebaseApp = initializeApp(firebaseConfig);
// Initialize the Gemini Developer API backend service
const ai = getAI(firebaseApp, { backend: new GoogleAIBackend() });
// Create a `GenerativeModel` instance with a model that supports your use case
const model = getGenerativeModel(ai, { model: "gemini-2.5-flash" });
// Converts a File object to a Part object.
async function fileToGenerativePart(file) {
const base64EncodedDataPromise = new Promise((resolve) => {
const reader = new FileReader();
reader.onloadend = () => resolve(reader.result.split(',')[1]);
reader.readAsDataURL(file);
});
return {
inlineData: { data: await base64EncodedDataPromise, mimeType: file.type },
};
}
async function run() {
// Provide a text prompt to include with the video
const prompt = "What do you see?";
const fileInputEl = document.querySelector("input[type=file]");
const videoPart = await fileToGenerativePart(fileInputEl.files[0]);
// To generate text output, call generateContent with the text and video
const result = await model.generateContent([prompt, videoPart]);
const response = result.response;
const text = response.text();
console.log(text);
}
run();
Dart
টেক্সট এবং ভিডিও ফাইলের মাল্টিমোডাল ইনপুট থেকে টেক্সট তৈরি করতে আপনি generateContent() কল করতে পারেন।
import 'package:firebase_ai/firebase_ai.dart';
import 'package:firebase_core/firebase_core.dart';
import 'firebase_options.dart';
// Initialize FirebaseApp
await Firebase.initializeApp(
options: DefaultFirebaseOptions.currentPlatform,
);
// Initialize the Gemini Developer API backend service
// Create a `GenerativeModel` instance with a model that supports your use case
final model =
FirebaseAI.googleAI().generativeModel(model: 'gemini-2.5-flash');
// Provide a text prompt to include with the video
final prompt = TextPart("What's in the video?");
// Prepare video for input
final video = await File('video0.mp4').readAsBytes();
// Provide the video as `Data` with the appropriate mimetype
final videoPart = InlineDataPart('video/mp4', video);
// To generate text output, call generateContent with the text and images
final response = await model.generateContent([
Content.multi([prompt, ...videoPart])
]);
print(response.text);
ঐক্য
টেক্সট এবং ভিডিও ফাইলের মাল্টিমোডাল ইনপুট থেকে টেক্সট তৈরি করতে আপনি GenerateContentAsync() কল করতে পারেন।
using Firebase;
using Firebase.AI;
// Initialize the Gemini Developer API backend service
var ai = FirebaseAI.GetInstance(FirebaseAI.Backend.GoogleAI());
// Create a `GenerativeModel` instance with a model that supports your use case
var model = ai.GetGenerativeModel(modelName: "gemini-2.5-flash");
// Provide the video as `data` with the appropriate MIME type.
var video = ModelContent.InlineData("video/mp4",
System.IO.File.ReadAllBytes(System.IO.Path.Combine(
UnityEngine.Application.streamingAssetsPath, "yourVideo.mp4")));
// Provide a text prompt to include with the video
var prompt = ModelContent.Text("What is in the video?");
// To generate text output, call GenerateContentAsync with the text and video
var response = await model.GenerateContentAsync(new [] { video, prompt });
UnityEngine.Debug.Log(response.Text ?? "No text in response.");
মডেল কীভাবে নির্বাচন করবেন তা শিখুনআপনার ব্যবহারের ক্ষেত্রে এবং অ্যাপের জন্য উপযুক্ত।
প্রতিক্রিয়া স্ট্রিম করুন
| এই নমুনাটি চেষ্টা করার আগে, আপনার প্রকল্প এবং অ্যাপ সেট আপ করতে এই নির্দেশিকার "শুরু করার আগে" বিভাগটি সম্পূর্ণ করুন। সেই বিভাগে, আপনি আপনার নির্বাচিত Gemini API প্রদানকারীর জন্য একটি বোতামে ক্লিক করবেন যাতে আপনি এই পৃষ্ঠায় প্রদানকারী-নির্দিষ্ট সামগ্রী দেখতে পান । |
মডেল জেনারেশন থেকে সম্পূর্ণ ফলাফলের জন্য অপেক্ষা না করে এবং আংশিক ফলাফল পরিচালনা করার জন্য স্ট্রিমিং ব্যবহার করে আপনি দ্রুত ইন্টারঅ্যাকশন অর্জন করতে পারেন। প্রতিক্রিয়া স্ট্রিম করতে, generateContentStream কল করুন।
সুইফট
শুধুমাত্র টেক্সট ইনপুট থেকে জেনারেট করা টেক্সট স্ট্রিম করার জন্য আপনি generateContentStream() কল করতে পারেন।
import FirebaseAI
// Initialize the Gemini Developer API backend service
let ai = FirebaseAI.firebaseAI(backend: .googleAI())
// Create a `GenerativeModel` instance with a model that supports your use case
let model = ai.generativeModel(modelName: "gemini-2.5-flash")
// Provide a prompt that contains text
let prompt = "Write a story about a magic backpack."
// To stream generated text output, call generateContentStream with the text input
let contentStream = try model.generateContentStream(prompt)
for try await chunk in contentStream {
if let text = chunk.text {
print(text)
}
}
Kotlin
শুধুমাত্র টেক্সট ইনপুট থেকে জেনারেট করা টেক্সট স্ট্রিম করার জন্য আপনি generateContentStream() কল করতে পারেন।
// Initialize the Gemini Developer API backend service
// Create a `GenerativeModel` instance with a model that supports your use case
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
.generativeModel("gemini-2.5-flash")
// Provide a prompt that includes only text
val prompt = "Write a story about a magic backpack."
// To stream generated text output, call generateContentStream and pass in the prompt
var response = ""
model.generateContentStream(prompt).collect { chunk ->
print(chunk.text)
response += chunk.text
}
Java
শুধুমাত্র টেক্সট ইনপুট থেকে জেনারেট করা টেক্সট স্ট্রিম করার জন্য আপনি generateContentStream() কল করতে পারেন।
Publisher টাইপ ফেরত দেয়।
// Initialize the Gemini Developer API backend service
// Create a `GenerativeModel` instance with a model that supports your use case
GenerativeModel ai = FirebaseAI.getInstance(GenerativeBackend.googleAI())
.generativeModel("gemini-2.5-flash");
// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(ai);
// Provide a prompt that contains text
Content prompt = new Content.Builder()
.addText("Write a story about a magic backpack.")
.build();
// To stream generated text output, call generateContentStream with the text input
Publisher<GenerateContentResponse> streamingResponse =
model.generateContentStream(prompt);
// Subscribe to partial results from the response
final String[] fullResponse = {""};
streamingResponse.subscribe(new Subscriber<GenerateContentResponse>() {
@Override
public void onNext(GenerateContentResponse generateContentResponse) {
String chunk = generateContentResponse.getText();
fullResponse[0] += chunk;
}
@Override
public void onComplete() {
System.out.println(fullResponse[0]);
}
@Override
public void onError(Throwable t) {
t.printStackTrace();
}
@Override
public void onSubscribe(Subscription s) { }
});
Web
শুধুমাত্র টেক্সট ইনপুট থেকে জেনারেট করা টেক্সট স্ট্রিম করার জন্য আপনি generateContentStream() কল করতে পারেন।
import { initializeApp } from "firebase/app";
import { getAI, getGenerativeModel, GoogleAIBackend } from "firebase/ai";
// TODO(developer) Replace the following with your app's Firebase configuration
// See: https://firebase.google.com/docs/web/learn-more#config-object
const firebaseConfig = {
// ...
};
// Initialize FirebaseApp
const firebaseApp = initializeApp(firebaseConfig);
// Initialize the Gemini Developer API backend service
const ai = getAI(firebaseApp, { backend: new GoogleAIBackend() });
// Create a `GenerativeModel` instance with a model that supports your use case
const model = getGenerativeModel(ai, { model: "gemini-2.5-flash" });
// Wrap in an async function so you can use await
async function run() {
// Provide a prompt that contains text
const prompt = "Write a story about a magic backpack."
// To stream generated text output, call generateContentStream with the text input
const result = await model.generateContentStream(prompt);
for await (const chunk of result.stream) {
const chunkText = chunk.text();
console.log(chunkText);
}
console.log('aggregated response: ', await result.response);
}
run();
Dart
শুধুমাত্র টেক্সট ইনপুট থেকে জেনারেট করা টেক্সট স্ট্রিম করার জন্য আপনি generateContentStream() কল করতে পারেন।
import 'package:firebase_ai/firebase_ai.dart';
import 'package:firebase_core/firebase_core.dart';
import 'firebase_options.dart';
// Initialize FirebaseApp
await Firebase.initializeApp(
options: DefaultFirebaseOptions.currentPlatform,
);
// Initialize the Gemini Developer API backend service
// Create a `GenerativeModel` instance with a model that supports your use case
final model =
FirebaseAI.googleAI().generativeModel(model: 'gemini-2.5-flash');
// Provide a prompt that contains text
final prompt = [Content.text('Write a story about a magic backpack.')];
// To stream generated text output, call generateContentStream with the text input
final response = model.generateContentStream(prompt);
await for (final chunk in response) {
print(chunk.text);
}
ঐক্য
শুধুমাত্র টেক্সট ইনপুট থেকে জেনারেট করা টেক্সট স্ট্রিম করার জন্য আপনি GenerateContentStreamAsync() কল করতে পারেন।
using Firebase;
using Firebase.AI;
// Initialize the Gemini Developer API backend service
var ai = FirebaseAI.GetInstance(FirebaseAI.Backend.GoogleAI());
// Create a `GenerativeModel` instance with a model that supports your use case
var model = ai.GetGenerativeModel(modelName: "gemini-2.5-flash");
// Provide a prompt that contains text
var prompt = "Write a story about a magic backpack.";
// To stream generated text output, call GenerateContentStreamAsync with the text input
var responseStream = model.GenerateContentStreamAsync(prompt);
await foreach (var response in responseStream) {
if (!string.IsNullOrWhiteSpace(response.Text)) {
UnityEngine.Debug.Log(response.Text);
}
}
মডেল কীভাবে নির্বাচন করবেন তা শিখুনআপনার ব্যবহারের ক্ষেত্রে এবং অ্যাপের জন্য উপযুক্ত।
সুইফট
মাল্টিমোডাল ইনপুট এবং একটি ভিডিও থেকে জেনারেট করা টেক্সট স্ট্রিম করার জন্য আপনি generateContentStream() কল করতে পারেন।
import FirebaseAI
// Initialize the Gemini Developer API backend service
let ai = FirebaseAI.firebaseAI(backend: .googleAI())
// Create a `GenerativeModel` instance with a model that supports your use case
let model = ai.generativeModel(modelName: "gemini-2.5-flash")
// Provide the video as `Data` with the appropriate MIME type
let video = InlineDataPart(data: try Data(contentsOf: videoURL), mimeType: "video/mp4")
// Provide a text prompt to include with the video
let prompt = "What is in the video?"
// To stream generated text output, call generateContentStream with the text and video
let contentStream = try model.generateContentStream(video, prompt)
for try await chunk in contentStream {
if let text = chunk.text {
print(text)
}
}
Kotlin
মাল্টিমোডাল ইনপুট এবং একটি ভিডিও থেকে জেনারেট করা টেক্সট স্ট্রিম করার জন্য আপনি generateContentStream() কল করতে পারেন।
// Initialize the Gemini Developer API backend service
// Create a `GenerativeModel` instance with a model that supports your use case
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
.generativeModel("gemini-2.5-flash")
val contentResolver = applicationContext.contentResolver
contentResolver.openInputStream(videoUri).use { stream ->
stream?.let {
val bytes = stream.readBytes()
// Provide a prompt that includes the video specified above and text
val prompt = content {
inlineData(bytes, "video/mp4")
text("What is in the video?")
}
// To stream generated text output, call generateContentStream with the prompt
var fullResponse = ""
model.generateContentStream(prompt).collect { chunk ->
Log.d(TAG, chunk.text ?: "")
fullResponse += chunk.text
}
}
}
Java
মাল্টিমোডাল ইনপুট এবং একটি ভিডিও থেকে জেনারেট করা টেক্সট স্ট্রিম করার জন্য আপনি generateContentStream() কল করতে পারেন।
Publisher টাইপ ফেরত দেয়।
// Initialize the Gemini Developer API backend service
// Create a `GenerativeModel` instance with a model that supports your use case
GenerativeModel ai = FirebaseAI.getInstance(GenerativeBackend.googleAI())
.generativeModel("gemini-2.5-flash");
// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(ai);
ContentResolver resolver = getApplicationContext().getContentResolver();
try (InputStream stream = resolver.openInputStream(videoUri)) {
File videoFile = new File(new URI(videoUri.toString()));
int videoSize = (int) videoFile.length();
byte[] videoBytes = new byte[videoSize];
if (stream != null) {
stream.read(videoBytes, 0, videoBytes.length);
stream.close();
// Provide a prompt that includes the video specified above and text
Content prompt = new Content.Builder()
.addInlineData(videoBytes, "video/mp4")
.addText("What is in the video?")
.build();
// To stream generated text output, call generateContentStream with the prompt
Publisher<GenerateContentResponse> streamingResponse =
model.generateContentStream(prompt);
final String[] fullResponse = {""};
streamingResponse.subscribe(new Subscriber<GenerateContentResponse>() {
@Override
public void onNext(GenerateContentResponse generateContentResponse) {
String chunk = generateContentResponse.getText();
fullResponse[0] += chunk;
}
@Override
public void onComplete() {
System.out.println(fullResponse[0]);
}
@Override
public void onError(Throwable t) {
t.printStackTrace();
}
@Override
public void onSubscribe(Subscription s) {
}
});
}
} catch (IOException e) {
e.printStackTrace();
} catch (URISyntaxException e) {
e.printStackTrace();
}
Web
মাল্টিমোডাল ইনপুট এবং একটি ভিডিও থেকে জেনারেট করা টেক্সট স্ট্রিম করার জন্য আপনি generateContentStream() কল করতে পারেন।
import { initializeApp } from "firebase/app";
import { getAI, getGenerativeModel, GoogleAIBackend } from "firebase/ai";
// TODO(developer) Replace the following with your app's Firebase configuration
// See: https://firebase.google.com/docs/web/learn-more#config-object
const firebaseConfig = {
// ...
};
// Initialize FirebaseApp
const firebaseApp = initializeApp(firebaseConfig);
// Initialize the Gemini Developer API backend service
const ai = getAI(firebaseApp, { backend: new GoogleAIBackend() });
// Create a `GenerativeModel` instance with a model that supports your use case
const model = getGenerativeModel(ai, { model: "gemini-2.5-flash" });
// Converts a File object to a Part object.
async function fileToGenerativePart(file) {
const base64EncodedDataPromise = new Promise((resolve) => {
const reader = new FileReader();
reader.onloadend = () => resolve(reader.result.split(',')[1]);
reader.readAsDataURL(file);
});
return {
inlineData: { data: await base64EncodedDataPromise, mimeType: file.type },
};
}
async function run() {
// Provide a text prompt to include with the video
const prompt = "What do you see?";
const fileInputEl = document.querySelector("input[type=file]");
const videoPart = await fileToGenerativePart(fileInputEl.files[0]);
// To stream generated text output, call generateContentStream with the text and video
const result = await model.generateContentStream([prompt, videoPart]);
for await (const chunk of result.stream) {
const chunkText = chunk.text();
console.log(chunkText);
}
}
run();
Dart
মাল্টিমোডাল ইনপুট এবং একটি ভিডিও থেকে জেনারেট করা টেক্সট স্ট্রিম করার জন্য আপনি generateContentStream() কল করতে পারেন।
import 'package:firebase_ai/firebase_ai.dart';
import 'package:firebase_core/firebase_core.dart';
import 'firebase_options.dart';
// Initialize FirebaseApp
await Firebase.initializeApp(
options: DefaultFirebaseOptions.currentPlatform,
);
// Initialize the Gemini Developer API backend service
// Create a `GenerativeModel` instance with a model that supports your use case
final model =
FirebaseAI.googleAI().generativeModel(model: 'gemini-2.5-flash');
// Provide a text prompt to include with the video
final prompt = TextPart("What's in the video?");
// Prepare video for input
final video = await File('video0.mp4').readAsBytes();
// Provide the video as `Data` with the appropriate mimetype
final videoPart = InlineDataPart('video/mp4', video);
// To stream generated text output, call generateContentStream with the text and image
final response = await model.generateContentStream([
Content.multi([prompt,videoPart])
]);
await for (final chunk in response) {
print(chunk.text);
}
ঐক্য
মাল্টিমোডাল ইনপুট এবং একটি ভিডিও থেকে জেনারেট করা টেক্সট স্ট্রিম করার জন্য আপনি GenerateContentStreamAsync() কল করতে পারেন।
using Firebase;
using Firebase.AI;
// Initialize the Gemini Developer API backend service
var ai = FirebaseAI.GetInstance(FirebaseAI.Backend.GoogleAI());
// Create a `GenerativeModel` instance with a model that supports your use case
var model = ai.GetGenerativeModel(modelName: "gemini-2.5-flash");
// Provide the video as `data` with the appropriate MIME type.
var video = ModelContent.InlineData("video/mp4",
System.IO.File.ReadAllBytes(System.IO.Path.Combine(
UnityEngine.Application.streamingAssetsPath, "yourVideo.mp4")));
// Provide a text prompt to include with the video
var prompt = ModelContent.Text("What is in the video?");
// To stream generated text output, call GenerateContentStreamAsync with the text and video
var responseStream = model.GenerateContentStreamAsync(new [] { video, prompt });
await foreach (var response in responseStream) {
if (!string.IsNullOrWhiteSpace(response.Text)) {
UnityEngine.Debug.Log(response.Text);
}
}
মডেল কীভাবে নির্বাচন করবেন তা শিখুনআপনার ব্যবহারের ক্ষেত্রে এবং অ্যাপের জন্য উপযুক্ত।
ইনপুট ইমেজ ফাইলের জন্য প্রয়োজনীয়তা এবং সুপারিশ
মনে রাখবেন যে ইনলাইন ডেটা হিসেবে প্রদত্ত একটি ফাইল ট্রানজিটের সময় base64 এ এনকোড করা থাকে, যা অনুরোধের আকার বৃদ্ধি করে। যদি একটি অনুরোধ খুব বড় হয় তবে আপনি একটি HTTP 413 ত্রুটি পাবেন।
নিম্নলিখিত সম্পর্কে বিস্তারিত তথ্য জানতে Vertex AI Gemini API- এর জন্য সমর্থিত ইনপুট ফাইল এবং প্রয়োজনীয়তাগুলি দেখুন:
- একটি অনুরোধে ফাইল সরবরাহের জন্য বিভিন্ন বিকল্প (ইনলাইন অথবা ফাইলের URL বা URI ব্যবহার করে)
- সমর্থিত ফাইলের ধরণ
- সমর্থিত MIME প্রকার এবং সেগুলি কীভাবে নির্দিষ্ট করবেন
- ফাইল এবং মাল্টিমোডাল অনুরোধের জন্য প্রয়োজনীয়তা এবং সর্বোত্তম অনুশীলন
তুমি আর কি করতে পারো?
- মডেলটিতে দীর্ঘ প্রম্পট পাঠানোর আগে টোকেন গণনা শিখুন।
- Cloud Storage for Firebase সেট আপ করুন যাতে আপনি আপনার মাল্টিমোডাল অনুরোধগুলিতে বড় ফাইলগুলি অন্তর্ভুক্ত করতে পারেন এবং প্রম্পটে ফাইল সরবরাহ করার জন্য আরও পরিচালিত সমাধান পেতে পারেন। ফাইলগুলিতে ছবি, PDF, ভিডিও এবং অডিও অন্তর্ভুক্ত থাকতে পারে।
- উৎপাদনের প্রস্তুতি সম্পর্কে চিন্তাভাবনা শুরু করুন ( উৎপাদন চেকলিস্ট দেখুন), যার মধ্যে রয়েছে:
- অননুমোদিত ক্লায়েন্টদের অপব্যবহার থেকে জেমিনি API রক্ষা করার জন্য Firebase App Check সেট আপ করা হচ্ছে ।
- নতুন অ্যাপ সংস্করণ প্রকাশ না করেই আপনার অ্যাপের মান (যেমন মডেলের নাম) আপডেট করার জন্য Firebase Remote Config একীভূত করা ।
অন্যান্য ক্ষমতা চেষ্টা করে দেখুন
- বহু-পালা কথোপকথন (চ্যাট) তৈরি করুন।
- শুধুমাত্র টেক্সট প্রম্পট থেকে টেক্সট তৈরি করুন।
- টেক্সট এবং মাল্টিমোডাল প্রম্পট উভয় থেকেই স্ট্রাকচার্ড আউটপুট (যেমন JSON) তৈরি করুন।
- টেক্সট প্রম্পট ( জেমিনি বা ইমেজেন ) থেকে ছবি তৈরি করুন।
- Gemini Live API ব্যবহার করে ইনপুট এবং আউটপুট (অডিও সহ) স্ট্রিম করুন ।
- আপনার অ্যাপের অন্যান্য অংশ এবং বহিরাগত সিস্টেম এবং তথ্যের সাথে একটি জেমিনি মডেল সংযোগ করতে টুলগুলি (যেমন Google অনুসন্ধানের সাথে ফাংশন কলিং এবং গ্রাউন্ডিং) ব্যবহার করুন।
কন্টেন্ট তৈরি কীভাবে নিয়ন্ত্রণ করতে হয় তা শিখুন
- সর্বোত্তম অনুশীলন, কৌশল এবং উদাহরণ প্রম্পট সহ দ্রুত নকশা বুঝুন ।
- তাপমাত্রা এবং সর্বোচ্চ আউটপুট টোকেন ( জেমিনির জন্য) অথবা আকৃতির অনুপাত এবং ব্যক্তি প্রজন্ম ( ইমেজেনের জন্য) এর মতো মডেল প্যারামিটারগুলি কনফিগার করুন ।
- ক্ষতিকারক বলে বিবেচিত হতে পারে এমন প্রতিক্রিয়া পাওয়ার সম্ভাবনা সামঞ্জস্য করতে নিরাপত্তা সেটিংস ব্যবহার করুন ।
সমর্থিত মডেলগুলি সম্পর্কে আরও জানুন
বিভিন্ন ব্যবহারের ক্ষেত্রে উপলব্ধ মডেল এবং তাদের কোটা এবং মূল্য সম্পর্কে জানুন।Firebase AI Logic এর সাথে আপনার অভিজ্ঞতা সম্পর্কে মতামত দিন।