En cada llamada a un modelo, puedes enviar una configuración del modelo para controlar cómo el modelo genera una respuesta. Cada modelo ofrece diferentes opciones de configuración.
Puedes experimentar con instrucciones y parámetros de configuración de modelos, y iterar rápidamente con Vertex AI Studio.
Gemini Ir a las opciones de configuración de Imagen Ir a las opciones de configuración de
Configura modelos Gemini
En esta sección, se muestra cómo configurar una configuración para usar con modelos Gemini y se proporciona una descripción de cada parámetro.
Configura un modelo (Gemini)
Configuración para casos de uso generales
Establece los valores de los parámetros en un GenerationConfig
como parte de la creación de la instancia de GenerativeModel
y llama a generateContent
, generateContentStream
o startChat
.
La configuración se mantiene durante el ciclo de vida de la instancia. Si quieres usar una configuración diferente, crea una instancia GenerativeModel
nueva con esa configuración.
// ...
// Set parameter values in a `GenerationConfig` (example values shown here)
val config = generationConfig {
maxOutputTokens = 200
stopSequences = listOf("red")
temperature = 0.9f
topK = 16
topP = 0.1f
}
// Specify the config as part of creating the `GenerativeModel` instance
val generativeModel = Firebase.vertexAI.generativeModel(
modelName = "GEMINI_MODEL_NAME ",
generationConfig = config
)
// ...
// ...
// Set parameter values in a `GenerationConfig` (example values shown here)
GenerationConfig.Builder configBuilder = new GenerationConfig.Builder();
configBuilder.maxOutputTokens = 200;
configBuilder.stopSequences = List.of("red");
configBuilder.temperature = 0.9f;
configBuilder.topK = 16;
configBuilder.topP = 0.1f;
GenerationConfig generationConfig = configBuilder.build();
// Specify the config as part of creating the `GenerativeModel` instance
GenerativeModel gm = FirebaseVertexAI.getInstance().generativeModel(
"GEMINI_MODEL_NAME ",
generationConfig
);
GenerativeModelFutures model = GenerativeModelFutures.from(gm);
// ...
Puedes encontrar una descripción de cada parámetro en la siguiente sección de esta página.
Configuración de Gemini Live API
Establece los valores de los parámetros en un LiveGenerationConfig
como parte de la creación de la instancia de LiveModel
.
La configuración se mantiene durante el ciclo de vida de la instancia. Si quieres usar una configuración diferente, crea una instancia LiveModel
nueva con esa configuración.
// ...
// Set parameter values in a `LiveGenerationConfig` (example values shown here)
val config = liveGenerationConfig {
maxOutputTokens = 200
responseModality = ResponseModality.AUDIO
speechConfig = SpeechConfig(voice = Voices.FENRIR)
temperature = 0.9f
topK = 16
topP = 0.1f
}
// Specify the config as part of creating the `LiveModel` instance
val generativeModel = Firebase.vertexAI.liveModel(
modelName = "gemini-2.0-flash-live-preview-04-09",
generationConfig = config
)
// ...
// ...
// Set parameter values in a `LiveGenerationConfig` (example values shown here)
LiveGenerationConfig.Builder configBuilder = new LiveGenerationConfig.Builder();
configBuilder.setMaxOutputTokens(200);
configBuilder.setResponseModalities(ResponseModality.AUDIO);
configBuilder.setSpeechConfig(new SpeechConfig(Voices.FENRIR));
configBuilder.setTemperature(0.9f);
configBuilder.setTopK(16);
configBuilder.setTopP(0.1f);
LiveGenerationConfig generationConfig = configBuilder.build();
// Specify the config as part of creating the `LiveModel` instance
LiveGenerativeModel gm = FirebaseVertexAI.getInstance().liveModel(
"gemini-2.0-flash-live-preview-04-09",
generationConfig
);
LiveModelFutures model = LiveModelFutures.from(gm);
// ...
Puedes encontrar una descripción de cada parámetro en la siguiente sección de esta página.
Descripción de los parámetros (Gemini)
A continuación, se incluye una descripción general de alto nivel de los parámetros disponibles, según corresponda. Puedes encontrar una lista completa de los parámetros y sus valores en la documentación de Google Cloud.
Parámetro | Descripción | Valor predeterminado |
---|---|---|
Marca de tiempo de audio
audioTimestamp
|
Es un valor booleano que habilita la comprensión de marcas de tiempo para archivos de entrada de solo audio. Solo se aplica cuando se usan llamadas |
false |
Penalización por frecuencia
frequencyPenalty
|
Controla la probabilidad de incluir tokens que aparecen repetidamente en la respuesta generada. Los valores positivos penalizan los tokens que aparecen repetidamente en el contenido generado, lo que disminuye la probabilidad de repetir contenido. |
--- |
Cantidad máxima de tokens de salida
maxOutputTokens
|
Especifica la cantidad máxima de tokens que se pueden generar en la respuesta. | --- |
Penalización por presencia
presencePenalty
|
Controla la probabilidad de incluir tokens que ya aparecen en la respuesta generada. Los valores positivos penalizan los tokens que ya aparecen en el contenido generado, lo que aumenta la probabilidad de generar contenido más diverso. |
--- |
Secuencias de detención
stopSequences
|
Especifica una lista de cadenas que le indica al modelo que deje de generar contenido si se encuentra una de las cadenas en la respuesta. Solo se aplica cuando se usa una configuración de |
--- |
Temperatura
temperature
|
Controla el grado de aleatorización en la respuesta. Las temperaturas más bajas generan respuestas más deterministas, y las temperaturas más altas generan respuestas más diversas o creativas. |
Depende del modelo |
Top-K
topK
|
Limita la cantidad de palabras con mayor probabilidad que se usan en el contenido generado. Un valor Top-K de 1 significa que el siguiente token seleccionado debe ser
el más probable entre todos los tokens del vocabulario del modelo, mientras que un valor Top-K de n significa que el siguiente token debe ser seleccionado entre los n tokens más probables (todo según la temperatura establecida).
|
Depende del modelo |
Top-P
topP
|
Controla la diversidad del contenido generado. Los tokens se eligen del más probable (consulta Top-K más arriba) al menos probable, hasta que la suma de sus probabilidades sea igual al valor de Top-P. |
Depende del modelo |
Modalidad de respuesta
responseModality
|
Especifica el tipo de salida transmitida cuando se usa Live API, por ejemplo, texto o audio. Solo se aplica cuando se usa Live API y una configuración de |
--- |
Discurso (voz)
speechConfig
|
Especifica la voz que se usa para la salida de audio transmitida cuando se usa Live API. Solo se aplica cuando se usa Live API y una configuración de |
Puck |
Configura modelos Imagen
En esta sección, se muestra cómo configurar una configuración para usar con modelos Imagen y se proporciona una descripción de cada parámetro.
Configura un modelo (Imagen)
Establece los valores de los parámetros en un ImagenGenerationConfig
como parte de la creación de la instancia de ImagenModel
y la llamada a generateImages
.
La configuración se mantiene durante el ciclo de vida de la instancia. Si quieres usar una configuración diferente, crea una instancia ImagenModel
nueva con esa configuración.
// ...
// Set parameter values in a `ImagenGenerationConfig` (example values shown here)
val config = ImagenGenerationConfig(
negativePrompt = "frogs",
numberOfImages = 2,
aspectRatio = ImagenAspectRatio.LANDSCAPE_16x9,
imageFormat = ImagenImageFormat.jpeg(compressionQuality = 100),
addWatermark = false
)
// Specify the config as part of creating the `ImagenModel` instance
val imagenModel = Firebase.vertexAI.imagenModel(
modelName = "IMAGEN_MODEL_NAME ",
generationConfig = config
)
// ...
// ...
// Set parameter values in a `ImagenGenerationConfig` (example values shown here)
ImagenGenerationConfig config = new ImagenGenerationConfig.Builder()
.setNegativePrompt("frogs")
.setNumberOfImages(2)
.setAspectRatio(ImagenAspectRatio.LANDSCAPE_16x9)
.setImageFormat(ImagenImageFormat.jpeg(100))
.setAddWatermark(false)
.build();
// Specify the config as part of creating the `ImagenModel` instance
ImagenModel m = FirebaseVertexAI.getInstance().imagenModel(
"IMAGEN_MODEL_NAME ",
config
);
ImagenModelFutures model = ImagenModelFutures.from(m);
// ...
Puedes encontrar una descripción de cada parámetro en la siguiente sección de esta página.
Descripción de los parámetros (Imagen)
A continuación, se incluye una descripción general de alto nivel de los parámetros disponibles, según corresponda. Puedes encontrar una lista completa de los parámetros y sus valores en la documentación de Google Cloud.
Parámetro | Descripción | Valor predeterminado |
---|---|---|
Consigna negativa
negativePrompt
|
Una descripción de lo que deseas omitir en las imágenes generadas
|
--- |
Cantidad de resultados
numberOfImages
|
Es la cantidad de imágenes generadas que se muestran para cada solicitud. | El valor predeterminado es una imagen para los modelos Imagen 3. |
Relación de aspecto
aspectRatio
|
Es la proporción entre el ancho y la altura de las imágenes generadas. | el valor predeterminado es cuadrado (1:1) |
Formato de imagen
imageFormat
|
Las opciones de salida, como el formato de imagen (tipo MIME) y el nivel de compresión de las imágenes generadas | El tipo MIME predeterminado es PNG La compresión predeterminada es 75 (si el tipo MIME se establece en JPEG) |
Marca de agua
addWatermark
|
Si se debe agregar una marca de agua digital no visible (denominada SynthID) a las imágenes generadas | El valor predeterminado es true para los modelos Imagen 3.
|
Generación de personas
personGeneration
|
Si se permite que el modelo genere personas | El valor predeterminado depende del modelo. |
Otras opciones para controlar la generación de contenido
- Obtén más información sobre el diseño de instrucciones para influir en el modelo y generar resultados específicos para tus necesidades.
- Usa la configuración de seguridad para ajustar la probabilidad de recibir respuestas que se puedan considerar dañinas, como incitación al odio o a la violencia y contenido sexual explícito.
- Establece instrucciones del sistema para guiar el comportamiento del modelo. Esta función es como un "preámbulo" que agregas antes de que el modelo se exponga a otras instrucciones del usuario final.
- Pasa un esquema de respuesta junto con la instrucción para especificar un esquema de salida específico. Esta función se usa con mayor frecuencia cuando se genera un resultado JSON, pero también se puede usar para tareas de clasificación (como cuando deseas que el modelo use etiquetas específicas).