Bei jedem Aufruf eines Modells können Sie eine Modellkonfiguration mitsenden, um zu steuern, wie das Modell eine Antwort generiert. Jedes Modell bietet unterschiedliche Konfigurationsoptionen.
Sie können Prompts und Modellkonfigurationen auch mit Google AI Studio testen.Zu den Gemini Konfigurationsoptionen springen Zu den Imagen Konfigurationsoptionen springen (eingestellt)
Gemini Modelle konfigurieren
|
Klicken Sie auf Ihren Gemini API Anbieter, um anbieterspezifische Inhalte und Code auf dieser Seite aufzurufen. |
In diesem Abschnitt wird beschrieben, wie Sie eine Konfiguration für die Verwendung mit Gemini Modellen einrichten. Außerdem finden Sie eine Beschreibung der einzelnen Parameter.
Modellkonfiguration einrichten (Gemini)
Konfiguration für allgemeine Gemini Anwendungsfälle
Die Konfiguration bleibt für die Lebensdauer der Instanz erhalten. Wenn Sie eine andere Konfiguration verwenden möchten, erstellen Sie eine neue GenerativeModel-Instanz mit dieser Konfiguration.
Swift
Legen Sie die Werte der Parameter in einer
GenerationConfig
fest, wenn Sie eine GenerativeModel Instanz erstellen.
import FirebaseAILogic
// Set parameter values in a `GenerationConfig`.
// IMPORTANT: Example values shown here. Make sure to update for your use case.
let config = GenerationConfig(
candidateCount: 1,
temperature: 0.9,
topP: 0.1,
topK: 16,
maxOutputTokens: 200,
stopSequences: ["red"]
)
// Initialize the Gemini Developer API backend service
// Specify the config as part of creating the `GenerativeModel` instance
let model = FirebaseAI.firebaseAI(backend: .googleAI()).generativeModel(
modelName: "GEMINI_MODEL_NAME",
generationConfig: config
)
// ...
Kotlin
Legen Sie die Werte der Parameter in einer
GenerationConfig
fest, wenn Sie eine GenerativeModel Instanz erstellen.
// ...
// Set parameter values in a `GenerationConfig`.
// IMPORTANT: Example values shown here. Make sure to update for your use case.
val config = generationConfig {
candidateCount = 1
maxOutputTokens = 200
stopSequences = listOf("red")
temperature = 0.9f
topK = 16
topP = 0.1f
}
// Initialize the Gemini Developer API backend service
// Specify the config as part of creating the `GenerativeModel` instance
val model = Firebase.ai(backend = GenerativeBackend.googleAI()).generativeModel(
modelName = "GEMINI_MODEL_NAME",
generationConfig = config
)
// ...
Java
Legen Sie die Werte der Parameter in einer
GenerationConfig
fest, wenn Sie eine GenerativeModel Instanz erstellen.
// ...
// Set parameter values in a `GenerationConfig`.
// IMPORTANT: Example values shown here. Make sure to update for your use case.
GenerationConfig.Builder configBuilder = new GenerationConfig.Builder();
configBuilder.candidateCount = 1;
configBuilder.maxOutputTokens = 200;
configBuilder.stopSequences = List.of("red");
configBuilder.temperature = 0.9f;
configBuilder.topK = 16;
configBuilder.topP = 0.1f;
GenerationConfig config = configBuilder.build();
// Specify the config as part of creating the `GenerativeModel` instance
GenerativeModelFutures model = GenerativeModelFutures.from(
FirebaseAI.getInstance(GenerativeBackend.googleAI())
.generativeModel(
"GEMINI_MODEL_NAME",
config
);
);
// ...
Web
Legen Sie die Werte der Parameter in einer
GenerationConfig
fest, wenn Sie eine GenerativeModel Instanz erstellen.
// ...
// Initialize the Gemini Developer API backend service
const ai = getAI(firebaseApp, { backend: new GoogleAIBackend() });
// Set parameter values in a `GenerationConfig`.
// IMPORTANT: Example values shown here. Make sure to update for your use case.
const generationConfig = {
candidate_count: 1,
maxOutputTokens: 200,
stopSequences: ["red"],
temperature: 0.9,
topP: 0.1,
topK: 16,
};
// Specify the config as part of creating the `GenerativeModel` instance
const model = getGenerativeModel(ai, { model: "GEMINI_MODEL_NAME", generationConfig });
// ...
Dart
Legen Sie die Werte der Parameter in einer
GenerationConfig
fest, wenn Sie eine GenerativeModel Instanz erstellen.
// ...
// Set parameter values in a `GenerationConfig`.
// IMPORTANT: Example values shown here. Make sure to update for your use case.
final generationConfig = GenerationConfig(
candidateCount: 1,
maxOutputTokens: 200,
stopSequences: ["red"],
temperature: 0.9,
topP: 0.1,
topK: 16,
);
// Initialize the Gemini Developer API backend service
// Specify the config as part of creating the `GenerativeModel` instance
final model = FirebaseAI.googleAI().generativeModel(
model: 'GEMINI_MODEL_NAME',
config: generationConfig,
);
// ...
Einheit
Legen Sie die Werte der Parameter in einer
GenerationConfig
fest, wenn Sie eine GenerativeModel Instanz erstellen.
// ...
// Set parameter values in a `GenerationConfig`.
// IMPORTANT: Example values shown here. Make sure to update for your use case.
var generationConfig = new GenerationConfig(
candidateCount: 1,
maxOutputTokens: 200,
stopSequences: new string[] { "red" },
temperature: 0.9f,
topK: 16,
topP: 0.1f
);
// Specify the config as part of creating the `GenerativeModel` instance
var ai = FirebaseAI.GetInstance(FirebaseAI.Backend.GoogleAI());
var model = ai.GetGenerativeModel(
modelName: "GEMINI_MODEL_NAME",
generationConfig: generationConfig
);
Eine Beschreibung der einzelnen Parameter finden Sie im nächsten Abschnitt dieser Seite.
Konfiguration für die Gemini Live API
Die Konfiguration bleibt für die Lebensdauer der Instanz erhalten. Wenn Sie eine andere Konfiguration verwenden möchten, erstellen Sie eine neue LiveModel-Instanz mit dieser Konfiguration.
Swift
Legen Sie die Werte der Parameter in der
liveGenerationConfig
bei der Initialisierung der LiveModel Instanz fest:
// ...
// Set parameter values in a `LiveGenerationConfig` (example values shown here)
let config = LiveGenerationConfig(
temperature: 0.9,
topP: 0.1,
topK: 16,
maxOutputTokens: 200,
responseModalities: [.audio],
speech: SpeechConfig(voiceName: "Fenrir"),
)
// Specify the config as part of creating the `liveModel` instance
let liveModel = FirebaseAI.firebaseAI(backend: .googleAI()).liveModel(
modelName: "GEMINI_LIVE_MODEL_NAME",
generationConfig: config
)
// ...
Kotlin
Legen Sie die Werte der Parameter in einer
LiveGenerationConfig
fest, wenn Sie eine LiveModel Instanz erstellen.
// ...
// Set parameter values in a `LiveGenerationConfig` (example values shown here)
val config = liveGenerationConfig {
maxOutputTokens = 200
responseModality = ResponseModality.AUDIO
speechConfig = SpeechConfig(voice = Voices.FENRIR)
temperature = 0.9f
topK = 16
topP = 0.1f
}
// Specify the config as part of creating the `LiveModel` instance
val liveModel = Firebase.ai(backend = GenerativeBackend.googleAI()).liveModel(
modelName = "GEMINI_LIVE_MODEL_NAME",
generationConfig = config
)
// ...
Java
Legen Sie die Werte der Parameter in einer
LiveGenerationConfig
fest, wenn Sie eine LiveModel Instanz erstellen.
// ...
// Set parameter values in a `LiveGenerationConfig` (example values shown here)
LiveGenerationConfig.Builder configBuilder = new LiveGenerationConfig.Builder();
configBuilder.setMaxOutputTokens(200);
configBuilder.setResponseModality(ResponseModality.AUDIO);
configBuilder.setSpeechConfig(new SpeechConfig(Voices.FENRIR));
configBuilder.setTemperature(0.9f);
configBuilder.setTopK(16);
configBuilder.setTopP(0.1f);
LiveGenerationConfig config = configBuilder.build();
// Specify the config as part of creating the `LiveModel` instance
LiveGenerativeModel lm = FirebaseAI.getInstance(GenerativeBackend.googleAI()).liveModel(
"GEMINI_LIVE_MODEL_NAME",
config
);
// ...
Web
Legen Sie die Werte der Parameter in der
LiveGenerationConfig
bei der Initialisierung der LiveGenerativeModel Instanz fest:
// ...
const ai = getAI(firebaseApp, { backend: new GoogleAIBackend() });
// Set parameter values in a `LiveGenerationConfig` (example values shown here)
const liveGenerationConfig = {
maxOutputTokens: 200,
responseModalities: [ResponseModality.AUDIO],
speechConfig: {
voiceConfig: {
prebuiltVoiceConfig: { voiceName: "Fenrir" },
},
},
temperature: 0.9,
topP: 0.1,
topK: 16,
};
// Specify the config as part of creating the `LiveGenerativeModel` instance
const liveModel = getLiveGenerativeModel(ai, {
model: "GEMINI_LIVE_MODEL_NAME",
liveGenerationConfig,
});
// ...
Dart
Legen Sie die Werte der Parameter in einer
LiveGenerationConfig
fest, wenn Sie eine LiveGenerativeModel Instanz erstellen.
// ...
// Set parameter values in a `LiveGenerationConfig` (example values shown here)
final config = LiveGenerationConfig(
maxOutputTokens: 200,
responseModalities: [ResponseModalities.audio],
speechConfig: SpeechConfig(voiceName: 'Fenrir'),
temperature: 0.9,
topP: 0.1,
topK: 16,
);
// Specify the config as part of creating the `liveGenerativeModel` instance
final liveModel = FirebaseAI.googleAI().liveGenerativeModel(
model: 'GEMINI_LIVE_MODEL_NAME',
liveGenerationConfig: config,
);
// ...
Einheit
Legen Sie die Werte der Parameter in einer
LiveGenerationConfig
fest, wenn Sie eine LiveModel Instanz erstellen.
// ...
// Set parameter values in a `LiveGenerationConfig` (example values shown here)
var config = new LiveGenerationConfig(
maxOutputTokens: 200,
responseModalities: new[] { ResponseModality.Audio },
speechConfig: SpeechConfig.UsePrebuiltVoice("Fenrir"),
temperature: 0.9f,
topK: 16,
topP: 0.1f
);
// Specify the config as part of creating the `LiveModel` instance
var liveModel = FirebaseAI.GetInstance(FirebaseAI.Backend.GoogleAI()).GetLiveModel(
modelName: "GEMINI_LIVE_MODEL_NAME",
liveGenerationConfig: config
);
// ...
Eine Beschreibung der einzelnen Parameter finden Sie im nächsten Abschnitt dieser Seite.
Beschreibung der Parameter (Gemini)
Hier finden Sie eine allgemeine Übersicht über die verfügbaren Parameter. Eine umfassende Liste der Parameter und ihrer Werte finden Sie in der Gemini Developer API Dokumentation.
| Parameter | Beschreibung | Standardwert |
|---|---|---|
Audio-ZeitstempelaudioTimestamp
|
Ein boolescher Wert, der die Zeitstempel-Erkennung für reine Audio-Eingabedateien aktiviert. Gilt nur bei Verwendung von |
false |
Anzahl der KandidatencandidateCount
|
Gibt die Anzahl der zurückzugebenden Antwortvarianten an. Für jede Anfrage werden Ihnen die Ausgabetokens aller Kandidaten in Rechnung gestellt, aber nur einmal für die Eingabetokens. Unterstützte Werte: Gilt nur bei Verwendung von |
1 |
Strafe für HäufigkeitfrequencyPenalty
|
Steuert die Wahrscheinlichkeit, dass Tokens in die generierte Antwort aufgenommen werden, die wiederholt vorkommen. Positive Werte nehmen Abzüge bei Tokens vor, die wiederholt im generierten Inhalt angezeigt werden, wodurch die Wahrscheinlichkeit wiederholter Inhalte verringert wird. |
--- |
Max. AusgabetokensmaxOutputTokens
|
Gibt die maximale Anzahl von Tokens an, die in der Antwort generiert werden können. | --- |
Strafe für VorhandenseinpresencePenalty
|
Steuert die Wahrscheinlichkeit, dass Tokens in die generierte Antwort aufgenommen werden, die bereits in
der generierten Antwort vorkommen. Positive Werte nehmen Abzüge bei Tokens vor, die bereits im generierten Inhalt angezeigt werden, wodurch die Wahrscheinlichkeit vielfältigerer Inhalte erhöht wird. |
--- |
StoppsequenzenstopSequences
|
Gibt eine Liste an Strings an, die das Modell anweist, keine Inhalte mehr zu generieren, wenn einer der Strings in der Antwort gefunden wird. Gilt nur bei Verwendung einer
Konfiguration. |
--- |
Temperaturtemperature
|
Steuert den Grad der Zufälligkeit in der Antwort. Niedrigere Temperaturen führen zu deterministischeren Antworten und höhere Temperaturen zu vielfältigeren oder kreativeren Antworten. |
Abhängig vom Modell |
Top-KtopK
|
Begrenzt die Anzahl der Wörter mit der höchsten Wahrscheinlichkeit, die im
generierten Inhalt verwendet werden. Ein Top-K-Wert von 1 bedeutet, dass das nächste ausgewählte Token unter den Tokens im Modell-Vokabular
das wahrscheinlichste sein sollte, während ein Top-K-Wert von n bedeutet, dass das nächste Token aus den
n wahrscheinlichsten Tokens ausgewählt werden sollte
(alles basierend auf der festgelegten Temperatur).
|
Abhängig vom Modell |
Top-PtopP
|
Steuert die Vielfalt der generierten Inhalte. Die Tokens werden von den wahrscheinlichsten (siehe oben „Top-K“) bis zu den unwahrscheinlichsten Werten ausgewählt, bis die Summe ihrer Wahrscheinlichkeiten dem „Top-P“-Wert entspricht. |
Abhängig vom Modell |
AntwortmodalitätresponseModality
|
Gibt den Typ der gestreamten Ausgabe an, wenn die Live API oder die native multimodale Ausgabe eines Gemini Modells verwendet wird, z. B. Text, Audio oder Bilder. Gilt nur bei Verwendung der Live API Modelle oder eines Gemini Modells, das multimodale Ausgaben generieren kann. |
--- |
Sprache (Stimme)speechConfig
|
Gibt die Stimme an, die für die gestreamte Audioausgabe verwendet wird, wenn die Live API verwendet wird. Gilt nur bei Verwendung der Live API Modelle. |
Puck |
Imagen-Modelle konfigurieren
|
Klicken Sie auf Ihren Imagen API Anbieter, um anbieterspezifische Inhalte und Code auf dieser Seite aufzurufen. |
In diesem Abschnitt wird beschrieben, wie Sie eine Konfiguration für die Verwendung mit Imagen Modellen einrichten. Außerdem finden Sie eine Beschreibung der einzelnen Parameter.
Modellkonfiguration einrichten (Imagen)
Die Konfiguration bleibt für die Lebensdauer der Instanz erhalten. Wenn Sie eine andere Konfiguration verwenden möchten, erstellen Sie eine neue ImagenModel-Instanz mit dieser Konfiguration.
Swift
Legen Sie die Werte der Parameter in einer
ImagenGenerationConfig
fest, wenn Sie eine ImagenModel Instanz erstellen.
import FirebaseAILogic
// Set parameter values in a `ImagenGenerationConfig` (example values shown here)
let config = ImagenGenerationConfig(
negativePrompt: "frogs",
numberOfImages: 2,
aspectRatio: .landscape16x9,
imageFormat: .jpeg(compressionQuality: 100),
addWatermark: false
)
// Initialize the Gemini Developer API backend service
// Specify the config as part of creating the `ImagenModel` instance
let model = FirebaseAI.firebaseAI(backend: .googleAI()).imagenModel(
modelName: "IMAGEN_MODEL_NAME",
generationConfig: config
)
// ...
Kotlin
Legen Sie die Werte der Parameter in einer
ImagenGenerationConfig
fest, wenn Sie eine ImagenModel Instanz erstellen.
// ...
// Set parameter values in a `ImagenGenerationConfig` (example values shown here)
val config = ImagenGenerationConfig {
negativePrompt = "frogs",
numberOfImages = 2,
aspectRatio = ImagenAspectRatio.LANDSCAPE_16x9,
imageFormat = ImagenImageFormat.jpeg(compressionQuality = 100),
addWatermark = false
}
// Initialize the Gemini Developer API backend service
// Specify the config as part of creating the `GenerativeModel` instance
val model = Firebase.ai(backend = GenerativeBackend.vertexAI()).imagenModel(
modelName = "IMAGEN_MODEL_NAME",
generationConfig = config
)
// ...
Java
Legen Sie die Werte der Parameter in einer
ImagenGenerationConfig
fest, wenn Sie eine ImagenModel Instanz erstellen.
// ...
// Set parameter values in a `ImagenGenerationConfig` (example values shown here)
ImagenGenerationConfig config = new ImagenGenerationConfig.Builder()
.setNegativePrompt("frogs")
.setNumberOfImages(2)
.setAspectRatio(ImagenAspectRatio.LANDSCAPE_16x9)
.setImageFormat(ImagenImageFormat.jpeg(100))
.setAddWatermark(false)
.build();
// Specify the config as part of creating the `ImagenModel` instance
ImagenModelFutures model = ImagenModelFutures.from(
FirebaseAI.getInstance(GenerativeBackend.googleAI())
.imagenModel(
"IMAGEN_MODEL_NAME",
config
);
);
// ...
Web
Legen Sie die Werte der Parameter in einer
ImagenGenerationConfig
fest, wenn Sie eine ImagenModel Instanz erstellen.
// ...
// Initialize the Gemini Developer API backend service
const ai = getAI(firebaseApp, { backend: new GoogleAIBackend() });
// Set parameter values in a `ImagenGenerationConfig` (example values shown here)
const generationConfig = {
negativePrompt: "frogs",
numberOfImages: 2,
aspectRatio: ImagenAspectRatio.LANDSCAPE_16x9,
imageFormat: ImagenImageFormat.jpeg(100),
addWatermark: false
};
// Specify the config as part of creating the `ImagenModel` instance
const model = getImagenModel(ai, { model: "IMAGEN_MODEL_NAME", generationConfig });
// ...
Dart
Legen Sie die Werte der Parameter in einer
ImagenGenerationConfig
fest, wenn Sie eine ImagenModel Instanz erstellen.
// ...
// Set parameter values in a `ImagenGenerationConfig` (example values shown here)
final generationConfig = ImagenGenerationConfig(
negativePrompt: 'frogs',
numberOfImages: 2,
aspectRatio: ImagenAspectRatio.landscape16x9,
imageFormat: ImagenImageFormat.jpeg(compressionQuality: 100)
addWatermark: false
);
// Initialize the Gemini Developer API backend service
// Specify the config as part of creating the `ImagenModel` instance
final model = FirebaseAI.googleAI().imagenModel(
model: 'IMAGEN_MODEL_NAME',
config: generationConfig,
);
// ...
Einheit
Legen Sie die Werte der Parameter in einer
ImagenGenerationConfig
fest, wenn Sie eine ImagenModel Instanz erstellen.
using Firebase.AI;
// Set parameter values in a `ImagenGenerationConfig` (example values shown here)
var config = new ImagenGenerationConfig(
numberOfImages: 2,
aspectRatio: ImagenAspectRatio.Landscape16x9,
imageFormat: ImagenImageFormat.Jpeg(100)
);
// Initialize the Gemini Developer API backend service
// Specify the config as part of creating the `ImagenModel` instance
var model = FirebaseAI.GetInstance(FirebaseAI.Backend.GoogleAI()).GetImagenModel(
modelName: "imagen-4.0-generate-001",
generationConfig: config
);
// ...
Eine Beschreibung der einzelnen Parameter finden Sie im nächsten Abschnitt dieser Seite.
Beschreibung der Parameter (Imagen)
Hier finden Sie eine allgemeine Übersicht über die verfügbaren Parameter. Eine umfassende Liste der Parameter und ihrer Werte finden Sie in der Google Cloud Dokumentation.
| Parameter | Beschreibung | Standardwert |
|---|---|---|
Auszuschließende Keywords
negativePrompt
|
Eine Beschreibung dessen, was Sie in generierten Bildern auslassen möchten
Dieser Parameter wird von
|
--- |
Anzahl der Ergebnisse
numberOfImages
|
Die Anzahl der generierten Bilder, die für jede Anfrage zurückgegeben werden | Standardmäßig ein Bild |
Seitenverhältnis
aspectRatio
|
Das Verhältnis zwischen Breite und Höhe der generierten Bilder | Standardmäßig quadratisch (1:1) |
Bildformat
imageFormat
|
Die Ausgabeoptionen, z. B. das Bildformat (MIME-Typ) und der Komprimierungsgrad der generierten Bilder | Standard-MIME-Typ ist PNG Standardkomprimierung ist 75 (wenn der MIME-Typ auf JPEG festgelegt ist) |
Wasserzeichen
addWatermark
|
Gibt an, ob generierten Bildern ein unsichtbares digitales Wasserzeichen (SynthID) hinzugefügt werden soll | Standardmäßig true
|
Personengenerierung
personGeneration
|
Gibt an, ob das Modell Personen generieren darf | Standardmäßig abhängig vom Modell |
Sicherheitsattribute einbeziehen
includeSafetyAttributes
|
Gibt an, ob gerundete Werte der verantwortungsbewussten KI für eine Liste von Sicherheits
attributen in Antworten für ungefilterte Eingabe und Ausgabe aktiviert werden sollen Kategorien für Sicherheitsattribute:
|
Standardmäßig false |
Weitere Optionen zum Steuern der Content-Generierung
- Weitere Informationen zum Prompt-Design damit Sie das Modell so beeinflussen können, dass es Ausgaben generiert, die Ihren Anforderungen entsprechen.
- Mit Sicherheitseinstellungen können Sie steuern, wie wahrscheinlich es ist, dass Sie Antworten erhalten, die als schädlich eingestuft werden können, einschließlich Hassreden und sexuell anstößiger Inhalte.
- Legen Sie Systemanweisungen fest, um das Verhalten des Modells zu steuern. Diese Funktion ist wie eine Präambel, die Sie hinzufügen, bevor das Modell für weitere Anweisungen des Endnutzers freigegeben wird.
- Übergeben Sie zusammen mit dem Prompt ein Antwortschema , um ein bestimmtes Ausgabeschema anzugeben. Diese Funktion wird am häufigsten verwendet, wenn JSON-Ausgaben generiert werden, kann aber auch für Klassifizierungsaufgaben verwendet werden (z. B. wenn das Modell bestimmte Labels oder Tags verwenden soll).