Antworten mithilfe der Modellkonfiguration steuern

Bei jedem Aufruf eines Modells können Sie eine Modellkonfiguration mitsenden, um zu steuern, wie das Modell eine Antwort generiert. Jedes Modell bietet unterschiedliche Konfigurationsoptionen.

Sie können Prompts und Modellkonfigurationen auch mit Google AI Studio testen.

Zu den Gemini Konfigurationsoptionen springen Zu den Imagen Konfigurationsoptionen springen (eingestellt)



Gemini Modelle konfigurieren

Klicken Sie auf Ihren Gemini API Anbieter, um anbieterspezifische Inhalte und Code auf dieser Seite aufzurufen.

In diesem Abschnitt wird beschrieben, wie Sie eine Konfiguration für die Verwendung mit Gemini Modellen einrichten. Außerdem finden Sie eine Beschreibung der einzelnen Parameter.

Modellkonfiguration einrichten (Gemini)

Konfiguration für allgemeine Gemini Anwendungsfälle

Die Konfiguration bleibt für die Lebensdauer der Instanz erhalten. Wenn Sie eine andere Konfiguration verwenden möchten, erstellen Sie eine neue GenerativeModel-Instanz mit dieser Konfiguration.

Swift

Legen Sie die Werte der Parameter in einer GenerationConfig fest, wenn Sie eine GenerativeModel Instanz erstellen.


import FirebaseAILogic

// Set parameter values in a `GenerationConfig`.
// IMPORTANT: Example values shown here. Make sure to update for your use case.
let config = GenerationConfig(
  candidateCount: 1,
  temperature: 0.9,
  topP: 0.1,
  topK: 16,
  maxOutputTokens: 200,
  stopSequences: ["red"]
)

// Initialize the Gemini Developer API backend service
// Specify the config as part of creating the `GenerativeModel` instance
let model = FirebaseAI.firebaseAI(backend: .googleAI()).generativeModel(
  modelName: "GEMINI_MODEL_NAME",
  generationConfig: config
)

// ...

Kotlin

Legen Sie die Werte der Parameter in einer GenerationConfig fest, wenn Sie eine GenerativeModel Instanz erstellen.


// ...

// Set parameter values in a `GenerationConfig`.
// IMPORTANT: Example values shown here. Make sure to update for your use case.
val config = generationConfig {
    candidateCount = 1
    maxOutputTokens = 200
    stopSequences = listOf("red")
    temperature = 0.9f
    topK = 16
    topP = 0.1f
}

// Initialize the Gemini Developer API backend service
// Specify the config as part of creating the `GenerativeModel` instance
val model = Firebase.ai(backend = GenerativeBackend.googleAI()).generativeModel(
    modelName = "GEMINI_MODEL_NAME",
    generationConfig = config
)

// ...

Java

Legen Sie die Werte der Parameter in einer GenerationConfig fest, wenn Sie eine GenerativeModel Instanz erstellen.


// ...

// Set parameter values in a `GenerationConfig`.
// IMPORTANT: Example values shown here. Make sure to update for your use case.
GenerationConfig.Builder configBuilder = new GenerationConfig.Builder();
configBuilder.candidateCount = 1;
configBuilder.maxOutputTokens = 200;
configBuilder.stopSequences = List.of("red");
configBuilder.temperature = 0.9f;
configBuilder.topK = 16;
configBuilder.topP = 0.1f;

GenerationConfig config = configBuilder.build();

// Specify the config as part of creating the `GenerativeModel` instance
GenerativeModelFutures model = GenerativeModelFutures.from(
        FirebaseAI.getInstance(GenerativeBackend.googleAI())
                .generativeModel(
                    "GEMINI_MODEL_NAME",
                    config
                );
);

// ...

Web

Legen Sie die Werte der Parameter in einer GenerationConfig fest, wenn Sie eine GenerativeModel Instanz erstellen.


// ...

// Initialize the Gemini Developer API backend service
const ai = getAI(firebaseApp, { backend: new GoogleAIBackend() });

// Set parameter values in a `GenerationConfig`.
// IMPORTANT: Example values shown here. Make sure to update for your use case.
const generationConfig = {
  candidate_count: 1,
  maxOutputTokens: 200,
  stopSequences: ["red"],
  temperature: 0.9,
  topP: 0.1,
  topK: 16,
};

// Specify the config as part of creating the `GenerativeModel` instance
const model = getGenerativeModel(ai, { model: "GEMINI_MODEL_NAME",  generationConfig });

// ...

Dart

Legen Sie die Werte der Parameter in einer GenerationConfig fest, wenn Sie eine GenerativeModel Instanz erstellen.


// ...

// Set parameter values in a `GenerationConfig`.
// IMPORTANT: Example values shown here. Make sure to update for your use case.
final generationConfig = GenerationConfig(
  candidateCount: 1,
  maxOutputTokens: 200,
  stopSequences: ["red"],
  temperature: 0.9,
  topP: 0.1,
  topK: 16,
);

// Initialize the Gemini Developer API backend service
// Specify the config as part of creating the `GenerativeModel` instance
final model = FirebaseAI.googleAI().generativeModel(
  model: 'GEMINI_MODEL_NAME',
  config: generationConfig,
);

// ...

Einheit

Legen Sie die Werte der Parameter in einer GenerationConfig fest, wenn Sie eine GenerativeModel Instanz erstellen.


// ...

// Set parameter values in a `GenerationConfig`.
// IMPORTANT: Example values shown here. Make sure to update for your use case.
var generationConfig = new GenerationConfig(
  candidateCount: 1,
  maxOutputTokens: 200,
  stopSequences: new string[] { "red" },
  temperature: 0.9f,
  topK: 16,
  topP: 0.1f
);

// Specify the config as part of creating the `GenerativeModel` instance
var ai = FirebaseAI.GetInstance(FirebaseAI.Backend.GoogleAI());
var model = ai.GetGenerativeModel(
  modelName: "GEMINI_MODEL_NAME",
  generationConfig: generationConfig
);

Eine Beschreibung der einzelnen Parameter finden Sie im nächsten Abschnitt dieser Seite.

Konfiguration für die Gemini Live API

Die Konfiguration bleibt für die Lebensdauer der Instanz erhalten. Wenn Sie eine andere Konfiguration verwenden möchten, erstellen Sie eine neue LiveModel-Instanz mit dieser Konfiguration.

Swift

Legen Sie die Werte der Parameter in der liveGenerationConfig bei der Initialisierung der LiveModel Instanz fest:


// ...

// Set parameter values in a `LiveGenerationConfig` (example values shown here)
let config = LiveGenerationConfig(
  temperature: 0.9,
  topP: 0.1,
  topK: 16,
  maxOutputTokens: 200,
  responseModalities: [.audio],
  speech: SpeechConfig(voiceName: "Fenrir"),
)

// Specify the config as part of creating the `liveModel` instance
let liveModel = FirebaseAI.firebaseAI(backend: .googleAI()).liveModel(
  modelName: "GEMINI_LIVE_MODEL_NAME",
  generationConfig: config
)

// ...

Kotlin

Legen Sie die Werte der Parameter in einer LiveGenerationConfig fest, wenn Sie eine LiveModel Instanz erstellen.


// ...

// Set parameter values in a `LiveGenerationConfig` (example values shown here)
val config = liveGenerationConfig {
    maxOutputTokens = 200
    responseModality = ResponseModality.AUDIO
    speechConfig = SpeechConfig(voice = Voices.FENRIR)
    temperature = 0.9f
    topK = 16
    topP = 0.1f
}

// Specify the config as part of creating the `LiveModel` instance
val liveModel = Firebase.ai(backend = GenerativeBackend.googleAI()).liveModel(
    modelName = "GEMINI_LIVE_MODEL_NAME",
    generationConfig = config
)

// ...

Java

Legen Sie die Werte der Parameter in einer LiveGenerationConfig fest, wenn Sie eine LiveModel Instanz erstellen.


// ...

// Set parameter values in a `LiveGenerationConfig` (example values shown here)
LiveGenerationConfig.Builder configBuilder = new LiveGenerationConfig.Builder();
configBuilder.setMaxOutputTokens(200);
configBuilder.setResponseModality(ResponseModality.AUDIO);

configBuilder.setSpeechConfig(new SpeechConfig(Voices.FENRIR));
configBuilder.setTemperature(0.9f);
configBuilder.setTopK(16);
configBuilder.setTopP(0.1f);

LiveGenerationConfig config = configBuilder.build();

// Specify the config as part of creating the `LiveModel` instance
LiveGenerativeModel lm = FirebaseAI.getInstance(GenerativeBackend.googleAI()).liveModel(
          "GEMINI_LIVE_MODEL_NAME",
          config
);

// ...

Web

Legen Sie die Werte der Parameter in der LiveGenerationConfig bei der Initialisierung der LiveGenerativeModel Instanz fest:


// ...

const ai = getAI(firebaseApp, { backend: new GoogleAIBackend() });

// Set parameter values in a `LiveGenerationConfig` (example values shown here)
const liveGenerationConfig = {
  maxOutputTokens: 200,
  responseModalities: [ResponseModality.AUDIO],
  speechConfig: {
    voiceConfig: {
      prebuiltVoiceConfig: { voiceName: "Fenrir" },
    },
  },
  temperature: 0.9,
  topP: 0.1,
  topK: 16,
};

// Specify the config as part of creating the `LiveGenerativeModel` instance
const liveModel = getLiveGenerativeModel(ai, {
  model: "GEMINI_LIVE_MODEL_NAME",
  liveGenerationConfig,
});

// ...

Dart

Legen Sie die Werte der Parameter in einer LiveGenerationConfig fest, wenn Sie eine LiveGenerativeModel Instanz erstellen.


// ...

// Set parameter values in a `LiveGenerationConfig` (example values shown here)
final config = LiveGenerationConfig(
  maxOutputTokens: 200,
  responseModalities: [ResponseModalities.audio],
  speechConfig: SpeechConfig(voiceName: 'Fenrir'),
  temperature: 0.9,
  topP: 0.1,
  topK: 16,
);

// Specify the config as part of creating the `liveGenerativeModel` instance
final liveModel = FirebaseAI.googleAI().liveGenerativeModel(
  model: 'GEMINI_LIVE_MODEL_NAME',
  liveGenerationConfig: config,
);

// ...

Einheit

Legen Sie die Werte der Parameter in einer LiveGenerationConfig fest, wenn Sie eine LiveModel Instanz erstellen.


// ...

// Set parameter values in a `LiveGenerationConfig` (example values shown here)
var config = new LiveGenerationConfig(
  maxOutputTokens: 200,
  responseModalities: new[] { ResponseModality.Audio },
  speechConfig: SpeechConfig.UsePrebuiltVoice("Fenrir"),
  temperature: 0.9f,
  topK: 16,
  topP: 0.1f
);

// Specify the config as part of creating the `LiveModel` instance
var liveModel = FirebaseAI.GetInstance(FirebaseAI.Backend.GoogleAI()).GetLiveModel(
  modelName: "GEMINI_LIVE_MODEL_NAME",
  liveGenerationConfig: config
);

// ...

Eine Beschreibung der einzelnen Parameter finden Sie im nächsten Abschnitt dieser Seite.

Beschreibung der Parameter (Gemini)

Hier finden Sie eine allgemeine Übersicht über die verfügbaren Parameter. Eine umfassende Liste der Parameter und ihrer Werte finden Sie in der Gemini Developer API Dokumentation.

Parameter Beschreibung Standardwert
Audio-Zeitstempel
audioTimestamp

Ein boolescher Wert, der die Zeitstempel-Erkennung für reine Audio-Eingabedateien aktiviert.

Gilt nur bei Verwendung von generateContent oder generateContentStream Aufrufen und wenn der Eingabetyp eine reine Audiodatei ist.

false
Anzahl der Kandidaten
candidateCount

Gibt die Anzahl der zurückzugebenden Antwortvarianten an. Für jede Anfrage werden Ihnen die Ausgabetokens aller Kandidaten in Rechnung gestellt, aber nur einmal für die Eingabetokens.

Unterstützte Werte: 18 (einschließlich)

Gilt nur bei Verwendung von generateContent und den neuesten Gemini Modellen. Die Live API Modelle und generateContentStream werden nicht unterstützt.

1
Strafe für Häufigkeit
frequencyPenalty
Steuert die Wahrscheinlichkeit, dass Tokens in die generierte Antwort aufgenommen werden, die wiederholt vorkommen.
Positive Werte nehmen Abzüge bei Tokens vor, die wiederholt im generierten Inhalt angezeigt werden, wodurch die Wahrscheinlichkeit wiederholter Inhalte verringert wird.
---
Max. Ausgabetokens
maxOutputTokens
Gibt die maximale Anzahl von Tokens an, die in der Antwort generiert werden können. ---
Strafe für Vorhandensein
presencePenalty
Steuert die Wahrscheinlichkeit, dass Tokens in die generierte Antwort aufgenommen werden, die bereits in der generierten Antwort vorkommen.
Positive Werte nehmen Abzüge bei Tokens vor, die bereits im generierten Inhalt angezeigt werden, wodurch die Wahrscheinlichkeit vielfältigerer Inhalte erhöht wird.
---
Stoppsequenzen
stopSequences

Gibt eine Liste an Strings an, die das Modell anweist, keine Inhalte mehr zu generieren, wenn einer der Strings in der Antwort gefunden wird.

Gilt nur bei Verwendung einer Konfiguration.GenerativeModel

---
Temperatur
temperature
Steuert den Grad der Zufälligkeit in der Antwort.
Niedrigere Temperaturen führen zu deterministischeren Antworten und höhere Temperaturen zu vielfältigeren oder kreativeren Antworten.
Abhängig vom Modell
Top-K
topK
Begrenzt die Anzahl der Wörter mit der höchsten Wahrscheinlichkeit, die im generierten Inhalt verwendet werden.
Ein Top-K-Wert von 1 bedeutet, dass das nächste ausgewählte Token unter den Tokens im Modell-Vokabular das wahrscheinlichste sein sollte, während ein Top-K-Wert von n bedeutet, dass das nächste Token aus den n wahrscheinlichsten Tokens ausgewählt werden sollte (alles basierend auf der festgelegten Temperatur).
Abhängig vom Modell
Top-P
topP
Steuert die Vielfalt der generierten Inhalte.
Die Tokens werden von den wahrscheinlichsten (siehe oben „Top-K“) bis zu den unwahrscheinlichsten Werten ausgewählt, bis die Summe ihrer Wahrscheinlichkeiten dem „Top-P“-Wert entspricht.
Abhängig vom Modell
Antwortmodalität
responseModality

Gibt den Typ der gestreamten Ausgabe an, wenn die Live API oder die native multimodale Ausgabe eines Gemini Modells verwendet wird, z. B. Text, Audio oder Bilder.

Gilt nur bei Verwendung der Live API Modelle oder eines Gemini Modells, das multimodale Ausgaben generieren kann.

---
Sprache (Stimme)
speechConfig

Gibt die Stimme an, die für die gestreamte Audioausgabe verwendet wird, wenn die Live API verwendet wird.

Gilt nur bei Verwendung der Live API Modelle.

Puck



Imagen-Modelle konfigurieren

Klicken Sie auf Ihren Imagen API Anbieter, um anbieterspezifische Inhalte und Code auf dieser Seite aufzurufen.

In diesem Abschnitt wird beschrieben, wie Sie eine Konfiguration für die Verwendung mit Imagen Modellen einrichten. Außerdem finden Sie eine Beschreibung der einzelnen Parameter.

Modellkonfiguration einrichten (Imagen)

Die Konfiguration bleibt für die Lebensdauer der Instanz erhalten. Wenn Sie eine andere Konfiguration verwenden möchten, erstellen Sie eine neue ImagenModel-Instanz mit dieser Konfiguration.

Swift

Legen Sie die Werte der Parameter in einer ImagenGenerationConfig fest, wenn Sie eine ImagenModel Instanz erstellen.


import FirebaseAILogic

// Set parameter values in a `ImagenGenerationConfig` (example values shown here)
let config = ImagenGenerationConfig(
  negativePrompt: "frogs",
  numberOfImages: 2,
  aspectRatio: .landscape16x9,
  imageFormat: .jpeg(compressionQuality: 100),
  addWatermark: false
)

// Initialize the Gemini Developer API backend service
// Specify the config as part of creating the `ImagenModel` instance
let model = FirebaseAI.firebaseAI(backend: .googleAI()).imagenModel(
  modelName: "IMAGEN_MODEL_NAME",
  generationConfig: config
)

// ...

Kotlin

Legen Sie die Werte der Parameter in einer ImagenGenerationConfig fest, wenn Sie eine ImagenModel Instanz erstellen.


// ...

// Set parameter values in a `ImagenGenerationConfig` (example values shown here)
val config = ImagenGenerationConfig {
    negativePrompt = "frogs",
    numberOfImages = 2,
    aspectRatio = ImagenAspectRatio.LANDSCAPE_16x9,
    imageFormat = ImagenImageFormat.jpeg(compressionQuality = 100),
    addWatermark = false
}

// Initialize the Gemini Developer API backend service
// Specify the config as part of creating the `GenerativeModel` instance
val model = Firebase.ai(backend = GenerativeBackend.vertexAI()).imagenModel(
    modelName = "IMAGEN_MODEL_NAME",
    generationConfig = config
)

// ...

Java

Legen Sie die Werte der Parameter in einer ImagenGenerationConfig fest, wenn Sie eine ImagenModel Instanz erstellen.


// ...

// Set parameter values in a `ImagenGenerationConfig` (example values shown here)
ImagenGenerationConfig config = new ImagenGenerationConfig.Builder()
    .setNegativePrompt("frogs")
    .setNumberOfImages(2)
    .setAspectRatio(ImagenAspectRatio.LANDSCAPE_16x9)
    .setImageFormat(ImagenImageFormat.jpeg(100))
    .setAddWatermark(false)
    .build();

// Specify the config as part of creating the `ImagenModel` instance
ImagenModelFutures model = ImagenModelFutures.from(
        FirebaseAI.getInstance(GenerativeBackend.googleAI())
                .imagenModel(
                    "IMAGEN_MODEL_NAME",
                    config
                );
);

// ...

Web

Legen Sie die Werte der Parameter in einer ImagenGenerationConfig fest, wenn Sie eine ImagenModel Instanz erstellen.


// ...

// Initialize the Gemini Developer API backend service
const ai = getAI(firebaseApp, { backend: new GoogleAIBackend() });

// Set parameter values in a `ImagenGenerationConfig` (example values shown here)
const generationConfig = {
  negativePrompt: "frogs",
  numberOfImages: 2,
  aspectRatio: ImagenAspectRatio.LANDSCAPE_16x9,
  imageFormat: ImagenImageFormat.jpeg(100),
  addWatermark: false
};

// Specify the config as part of creating the `ImagenModel` instance
const model = getImagenModel(ai, { model: "IMAGEN_MODEL_NAME", generationConfig });

// ...

Dart

Legen Sie die Werte der Parameter in einer ImagenGenerationConfig fest, wenn Sie eine ImagenModel Instanz erstellen.


// ...

// Set parameter values in a `ImagenGenerationConfig` (example values shown here)
final generationConfig = ImagenGenerationConfig(
  negativePrompt: 'frogs',
  numberOfImages: 2,
  aspectRatio: ImagenAspectRatio.landscape16x9,
  imageFormat: ImagenImageFormat.jpeg(compressionQuality: 100)
  addWatermark: false
);

// Initialize the Gemini Developer API backend service
// Specify the config as part of creating the `ImagenModel` instance
final model = FirebaseAI.googleAI().imagenModel(
  model: 'IMAGEN_MODEL_NAME',
  config: generationConfig,
);

// ...

Einheit

Legen Sie die Werte der Parameter in einer ImagenGenerationConfig fest, wenn Sie eine ImagenModel Instanz erstellen.


using Firebase.AI;

// Set parameter values in a `ImagenGenerationConfig` (example values shown here)
var config = new ImagenGenerationConfig(
  numberOfImages: 2,
  aspectRatio: ImagenAspectRatio.Landscape16x9,
  imageFormat: ImagenImageFormat.Jpeg(100)
);

// Initialize the Gemini Developer API backend service
// Specify the config as part of creating the `ImagenModel` instance
var model = FirebaseAI.GetInstance(FirebaseAI.Backend.GoogleAI()).GetImagenModel(
  modelName: "imagen-4.0-generate-001",
  generationConfig: config
);

// ...

Eine Beschreibung der einzelnen Parameter finden Sie im nächsten Abschnitt dieser Seite.

Beschreibung der Parameter (Imagen)

Hier finden Sie eine allgemeine Übersicht über die verfügbaren Parameter. Eine umfassende Liste der Parameter und ihrer Werte finden Sie in der Google Cloud Dokumentation.

Parameter Beschreibung Standardwert
Auszuschließende Keywords
negativePrompt
Eine Beschreibung dessen, was Sie in generierten Bildern auslassen möchten

Dieser Parameter wird von imagen-3.0-generate-002 noch nicht unterstützt.

---
Anzahl der Ergebnisse
numberOfImages
Die Anzahl der generierten Bilder, die für jede Anfrage zurückgegeben werden Standardmäßig ein Bild
Seitenverhältnis
aspectRatio
Das Verhältnis zwischen Breite und Höhe der generierten Bilder Standardmäßig quadratisch (1:1)
Bildformat
imageFormat
Die Ausgabeoptionen, z. B. das Bildformat (MIME-Typ) und der Komprimierungsgrad der generierten Bilder Standard-MIME-Typ ist PNG
Standardkomprimierung ist 75 (wenn der MIME-Typ auf JPEG festgelegt ist)
Wasserzeichen
addWatermark
Gibt an, ob generierten Bildern ein unsichtbares digitales Wasserzeichen (SynthID) hinzugefügt werden soll Standardmäßig true
Personengenerierung
personGeneration
Gibt an, ob das Modell Personen generieren darf Standardmäßig abhängig vom Modell
Sicherheitsattribute einbeziehen
includeSafetyAttributes
Gibt an, ob gerundete Werte der verantwortungsbewussten KI für eine Liste von Sicherheits attributen in Antworten für ungefilterte Eingabe und Ausgabe aktiviert werden sollen

Kategorien für Sicherheitsattribute: "Death, Harm & Tragedy", "Firearms & Weapons", "Hate", "Health", "Illicit Drugs", "Politics", "Porn", "Religion & Belief", "Toxic", "Violence", "Vulgarity", "War & Conflict".

Standardmäßig false



Weitere Optionen zum Steuern der Content-Generierung

  • Weitere Informationen zum Prompt-Design damit Sie das Modell so beeinflussen können, dass es Ausgaben generiert, die Ihren Anforderungen entsprechen.
  • Mit Sicherheitseinstellungen können Sie steuern, wie wahrscheinlich es ist, dass Sie Antworten erhalten, die als schädlich eingestuft werden können, einschließlich Hassreden und sexuell anstößiger Inhalte.
  • Legen Sie Systemanweisungen fest, um das Verhalten des Modells zu steuern. Diese Funktion ist wie eine Präambel, die Sie hinzufügen, bevor das Modell für weitere Anweisungen des Endnutzers freigegeben wird.
  • Übergeben Sie zusammen mit dem Prompt ein Antwortschema , um ein bestimmtes Ausgabeschema anzugeben. Diese Funktion wird am häufigsten verwendet, wenn JSON-Ausgaben generiert werden, kann aber auch für Klassifizierungsaufgaben verwendet werden (z. B. wenn das Modell bestimmte Labels oder Tags verwenden soll).