Bei jedem Aufruf eines Modells können Sie eine Modellkonfiguration senden, um zu steuern, wie das Modell eine Antwort generiert. Jedes Modell bietet unterschiedliche Konfigurationsoptionen.
Sie können mit Prompts und Modellkonfigurationen experimentieren und mit Vertex AI Studio schnell iterieren.
Gemini Zu den Konfigurationsoptionen für Imagen Zu den Konfigurationsoptionen für
Gemini-Modelle konfigurieren
In diesem Abschnitt erfahren Sie, wie Sie eine Konfiguration für die Verwendung mit Gemini-Modellen einrichten. Außerdem wird jeder Parameter beschrieben.
Modellkonfiguration einrichten (Gemini)
Konfiguration für allgemeine Anwendungsfälle
Legen Sie die Werte der Parameter in einer GenerationConfig
fest, wenn Sie die GenerativeModel
-Instanz erstellen und generateContent
, generateContentStream
oder startChat
aufrufen.
Die Konfiguration bleibt während der gesamten Lebensdauer der Instanz erhalten. Wenn Sie eine andere Konfiguration verwenden möchten, erstellen Sie eine neue GenerativeModel
-Instanz mit dieser Konfiguration.
// ...
// Set parameter values in a `GenerationConfig` (example values shown here)
val config = generationConfig {
maxOutputTokens = 200
stopSequences = listOf("red")
temperature = 0.9f
topK = 16
topP = 0.1f
}
// Specify the config as part of creating the `GenerativeModel` instance
val generativeModel = Firebase.vertexAI.generativeModel(
modelName = "GEMINI_MODEL_NAME ",
generationConfig = config
)
// ...
// ...
// Set parameter values in a `GenerationConfig` (example values shown here)
GenerationConfig.Builder configBuilder = new GenerationConfig.Builder();
configBuilder.maxOutputTokens = 200;
configBuilder.stopSequences = List.of("red");
configBuilder.temperature = 0.9f;
configBuilder.topK = 16;
configBuilder.topP = 0.1f;
GenerationConfig generationConfig = configBuilder.build();
// Specify the config as part of creating the `GenerativeModel` instance
GenerativeModel gm = FirebaseVertexAI.getInstance().generativeModel(
"GEMINI_MODEL_NAME ",
generationConfig
);
GenerativeModelFutures model = GenerativeModelFutures.from(gm);
// ...
Eine Beschreibung der einzelnen Parameter finden Sie im nächsten Abschnitt dieser Seite.
Konfiguration für Gemini Live API
Legen Sie die Werte der Parameter in einem LiveGenerationConfig
fest, wenn Sie die LiveModel
-Instanz erstellen.
Die Konfiguration bleibt während der gesamten Lebensdauer der Instanz erhalten. Wenn Sie eine andere Konfiguration verwenden möchten, erstellen Sie eine neue LiveModel
-Instanz mit dieser Konfiguration.
// ...
// Set parameter values in a `LiveGenerationConfig` (example values shown here)
val config = liveGenerationConfig {
maxOutputTokens = 200
responseModality = ResponseModality.AUDIO
speechConfig = SpeechConfig(voice = Voices.FENRIR)
temperature = 0.9f
topK = 16
topP = 0.1f
}
// Specify the config as part of creating the `LiveModel` instance
val generativeModel = Firebase.vertexAI.liveModel(
modelName = "gemini-2.0-flash-live-preview-04-09",
generationConfig = config
)
// ...
// ...
// Set parameter values in a `LiveGenerationConfig` (example values shown here)
LiveGenerationConfig.Builder configBuilder = new LiveGenerationConfig.Builder();
configBuilder.setMaxOutputTokens(200);
configBuilder.setResponseModalities(ResponseModality.AUDIO);
configBuilder.setSpeechConfig(new SpeechConfig(Voices.FENRIR));
configBuilder.setTemperature(0.9f);
configBuilder.setTopK(16);
configBuilder.setTopP(0.1f);
LiveGenerationConfig generationConfig = configBuilder.build();
// Specify the config as part of creating the `LiveModel` instance
LiveGenerativeModel gm = FirebaseVertexAI.getInstance().liveModel(
"gemini-2.0-flash-live-preview-04-09",
generationConfig
);
LiveModelFutures model = LiveModelFutures.from(gm);
// ...
Eine Beschreibung der einzelnen Parameter finden Sie im nächsten Abschnitt dieser Seite.
Beschreibung der Parameter (Gemini)
Hier finden Sie eine Übersicht über die verfügbaren Parameter. Eine umfassende Liste der Parameter und ihrer Werte finden Sie in der Google Cloud-Dokumentation.
Parameter | Beschreibung | Standardwert |
---|---|---|
Audio-Zeitstempel
audioTimestamp
|
Ein boolescher Wert, der das Verstehen von Zeitstempeln für Eingabedateien mit reiner Audiowiedergabe ermöglicht. Gilt nur, wenn |
false |
Häufigkeitsstrafe
frequencyPenalty
|
Damit wird die Wahrscheinlichkeit gesteuert, dass Tokens eingeschlossen werden, die wiederholt in der generierten Antwort vorkommen. Positive Werte nehmen Abzüge bei Tokens vor, die wiederholt im generierten Text angezeigt werden, wodurch die Wahrscheinlichkeit wiederholter Inhalte verringert wird. |
--- |
Max. Ausgabetokens
maxOutputTokens
|
Gibt die maximale Anzahl von Tokens an, die in der Antwort generiert werden können. | --- |
Präsenzminderung
presencePenalty
|
Damit wird die Wahrscheinlichkeit gesteuert, dass Tokens eingeschlossen werden, die bereits in der generierten Antwort vorkommen. Positive Werte nehmen Abzüge bei Tokens vor, die wiederholt im generierten Text angezeigt werden, wodurch die Wahrscheinlichkeit wiederholter Inhalte verringert wird. |
--- |
Stoppsequenzen
stopSequences
|
Gibt eine Liste an Strings an, die das Modell anweist, Inhalte nicht mehr zu generieren, wenn einer der Strings in der Antwort gefunden wird. Gilt nur bei Verwendung einer |
--- |
Temperatur
temperature
|
Damit wird der Grad der Zufälligkeit der Antwort gesteuert. Niedrigere Temperaturen führen zu deterministischeren Antworten und höhere Temperaturen zu vielfältigeren oder kreativeren Antworten. |
Je nach Modell |
Top-K
topK
|
Damit wird die Anzahl der Wörter mit der höchsten Wahrscheinlichkeit begrenzt, die in den generierten Inhalten verwendet werden. Ein „Top-K“-Wert von 1 bedeutet, dass das nächste ausgewählte Token das wahrscheinlichste unter allen Tokens im Vokabular des Modells sein sollte. Ein „Top-K“-Wert von n bedeutet, dass das nächste Token aus den n wahrscheinlichsten Tokens ausgewählt werden sollte (je nach festgelegter Temperatur).
|
Je nach Modell |
Top-P
topP
|
Steuert die Vielfalt der generierten Inhalte. Die Tokens werden von den wahrscheinlichsten (siehe „Top-K“ oben) bis zu den unwahrscheinlichsten Werten ausgewählt, bis die Summe ihrer Wahrscheinlichkeiten dem „Top-P“-Wert entspricht. |
Je nach Modell |
Antwortmodalität
responseModality
|
Gibt den Typ der gestreamten Ausgabe an, wenn Live API verwendet wird, z. B. Text oder Audio. Gilt nur bei Verwendung von Live API und einer |
--- |
Sprache (Stimme)
speechConfig
|
Gibt die Stimme an, die für die gestreamte Audioausgabe verwendet wird, wenn Live API verwendet wird. Gilt nur bei Verwendung von Live API und einer |
Puck |
Imagen-Modelle konfigurieren
In diesem Abschnitt erfahren Sie, wie Sie eine Konfiguration für die Verwendung mit Imagen-Modellen einrichten. Außerdem wird jeder Parameter beschrieben.
Modellkonfiguration einrichten (Imagen)
Legen Sie die Werte der Parameter in einem ImagenGenerationConfig
fest, wenn Sie die ImagenModel
-Instanz erstellen und generateImages
aufrufen.
Die Konfiguration bleibt während der gesamten Lebensdauer der Instanz erhalten. Wenn Sie eine andere Konfiguration verwenden möchten, erstellen Sie eine neue ImagenModel
-Instanz mit dieser Konfiguration.
// ...
// Set parameter values in a `ImagenGenerationConfig` (example values shown here)
val config = ImagenGenerationConfig(
negativePrompt = "frogs",
numberOfImages = 2,
aspectRatio = ImagenAspectRatio.LANDSCAPE_16x9,
imageFormat = ImagenImageFormat.jpeg(compressionQuality = 100),
addWatermark = false
)
// Specify the config as part of creating the `ImagenModel` instance
val imagenModel = Firebase.vertexAI.imagenModel(
modelName = "IMAGEN_MODEL_NAME ",
generationConfig = config
)
// ...
// ...
// Set parameter values in a `ImagenGenerationConfig` (example values shown here)
ImagenGenerationConfig config = new ImagenGenerationConfig.Builder()
.setNegativePrompt("frogs")
.setNumberOfImages(2)
.setAspectRatio(ImagenAspectRatio.LANDSCAPE_16x9)
.setImageFormat(ImagenImageFormat.jpeg(100))
.setAddWatermark(false)
.build();
// Specify the config as part of creating the `ImagenModel` instance
ImagenModel m = FirebaseVertexAI.getInstance().imagenModel(
"IMAGEN_MODEL_NAME ",
config
);
ImagenModelFutures model = ImagenModelFutures.from(m);
// ...
Eine Beschreibung der einzelnen Parameter finden Sie im nächsten Abschnitt dieser Seite.
Beschreibung der Parameter (Imagen)
Hier finden Sie eine Übersicht über die verfügbaren Parameter. Eine umfassende Liste der Parameter und ihrer Werte finden Sie in der Google Cloud-Dokumentation.
Parameter | Beschreibung | Standardwert |
---|---|---|
Negativ-Prompt
negativePrompt
|
Eine Beschreibung dessen, was Sie in generierten Bildern auslassen möchten
Dieser Parameter wird von |
--- |
Anzahl der Ergebnisse
numberOfImages
|
Die Anzahl der generierten Bilder, die pro Anfrage zurückgegeben werden | Standard ist ein Bild für Imagen 3-Modelle |
Seitenverhältnis
aspectRatio
|
Das Verhältnis zwischen Breite und Höhe der generierten Bilder | Standard ist quadratisch (1:1) |
Bildformat
imageFormat
|
Die Ausgabeoptionen, z. B. das Bildformat (MIME-Typ) und die Komprimierungsstufe der generierten Bilder | Standard-MIME-Typ ist PNG Standardkomprimierung ist 75 (wenn der MIME-Typ auf JPEG festgelegt ist) |
Wasserzeichen
addWatermark
|
Ob generierten Bildern ein unsichtbares digitales Wasserzeichen (SynthID) hinzugefügt werden soll | Standardwert ist true für Imagen 3-Modelle
|
Personengenerierung
personGeneration
|
Ob die Generierung von Personen durch das Modell zulässig ist | Standardeinstellung hängt vom Modell ab |
Weitere Optionen zur Steuerung der Inhaltserstellung
- Weitere Informationen zum Design von Prompts, damit Sie das Modell beeinflussen können, um eine Ausgabe zu generieren, die Ihren Anforderungen entspricht.
- Mit den Sicherheitseinstellungen können Sie die Wahrscheinlichkeit anpassen, dass Sie Antworten erhalten, die als schädlich eingestuft werden könnten, einschließlich Hassrede und sexuell expliziter Inhalte.
- Legen Sie Systemanweisungen fest, um das Verhalten des Modells zu steuern. Diese Funktion ist wie eine „Präambel“, die Sie hinzufügen, bevor das Modell weiteren Anweisungen des Endnutzers ausgesetzt wird.
- Geben Sie ein Antwortschema zusammen mit dem Prompt an, um ein bestimmtes Ausgabeschema anzugeben. Diese Funktion wird am häufigsten beim Generieren von JSON-Ausgabe verwendet, kann aber auch für Klassifizierungsaufgaben verwendet werden, z. B. wenn das Modell bestimmte Labels oder Tags verwenden soll.