Generare testo da prompt multimodali utilizzando l'API Gemini


Quando chiami Gemini API dalla tua app utilizzando un SDK Vertex AI in Firebase, puoi chiedere al modello Gemini di generare del testo in base a un input multimodale. I prompt multimodali possono includere più modalità (o tipi di input), come testo, immagini, PDF, file di testo normale, video e audio.

In ogni richiesta multimodale devi sempre fornire quanto segue:

Per testare e eseguire l'iterazione sui prompt multimodali, ti consigliamo di utilizzare Vertex AI Studio.

Prima di iniziare

Se non l'hai ancora fatto, consulta la guida introduttiva, che descrive come configurare il progetto Firebase, collegare l'app a Firebase, aggiungere l'SDK, inizializzare il servizio Vertex AI e creare un'istanza GenerativeModel.

Genera testo da testo e una singola immagine Genera testo da testo e più immagini Genera testo da testo e un video

File multimediali di esempio

Se non hai già file multimediali, puoi utilizzare i seguenti file disponibili pubblicamente. Poiché questi file sono archiviati in bucket non presenti nel progetto Firebase, devi utilizzare il formato https://storage.googleapis.com/BUCKET_NAME/PATH/TO/FILE per l'URL.

Genera testo da testo e una singola immagine

Prima di provare questo esempio, assicurati di aver completato la sezione Prima di iniziare di questa guida.

Puoi chiamare Gemini API con prompt multimodali che includono sia il testo sia un singolo file (ad esempio un'immagine, come mostrato in questo esempio). Per queste chiamate, devi utilizzare un modello che supporti i contenuti multimediali nei prompt (ad esempio Gemini 2.0 Flash).

Assicurati di esaminare i requisiti e i consigli per i file di input.

Scegli se vuoi riprodurre la risposta in streaming (generateContentStream) o attendere la risposta fino a quando non viene generato l'intero risultato (generateContent).

Puoi ottenere interazioni più rapide non aspettando l'intero risultato della generazione del modello, ma utilizzando lo streaming per gestire i risultati parziali.

In alternativa, puoi attendere l'intero risultato anziché lo streaming. Il risultato viene restituito solo dopo che il modello ha completato l'intero processo di generazione.

Scopri come scegliere un modello e, facoltativamente, una località appropriata per il tuo caso d'uso e la tua app.

Genera testo da testo e più immagini

Prima di provare questo esempio, assicurati di aver completato la sezione Prima di iniziare di questa guida.

Puoi chiamare Gemini API con prompt multimodali che includono sia testo che più file (ad esempio immagini, come mostrato in questo esempio). Per queste chiamate, devi utilizzare un modello che supporti i contenuti multimediali nei prompt (ad esempio Gemini 2.0 Flash).

Assicurati di esaminare i requisiti e i consigli per i file di input.

Scegli se vuoi riprodurre la risposta in streaming (generateContentStream) o attendere la risposta fino a quando non viene generato l'intero risultato (generateContent).

Puoi ottenere interazioni più rapide non aspettando l'intero risultato della generazione del modello, ma utilizzando lo streaming per gestire i risultati parziali.

In alternativa, puoi attendere l'intero risultato anziché lo streaming. Il risultato viene restituito solo al termine dell'intera procedura di generazione.

Scopri come scegliere un modello e, facoltativamente, una località appropriata per il tuo caso d'uso e la tua app.

Genera testo da testo e un video

Prima di provare questo esempio, assicurati di aver completato la sezione Prima di iniziare di questa guida.

Puoi chiamare Gemini API con prompt multimodali che includono sia file di testo che video (come mostrato in questo esempio). Per queste chiamate, devi utilizzare un modello che supporti i contenuti multimediali nei prompt (ad esempio Gemini 2.0 Flash).

Assicurati di esaminare i requisiti e i consigli per i file di input.

Scegli se vuoi riprodurre la risposta in streaming (generateContentStream) o attendere la risposta fino a quando non viene generato l'intero risultato (generateContent).

Puoi ottenere interazioni più rapide non aspettando l'intero risultato della generazione del modello, ma utilizzando lo streaming per gestire i risultati parziali.

In alternativa, puoi attendere l'intero risultato anziché lo streaming. Il risultato viene restituito solo dopo che il modello ha completato l'intero processo di generazione.

Scopri come scegliere un modello e, facoltativamente, una località appropriata per il tuo caso d'uso e la tua app.

Requisiti e consigli per i file di input

Consulta File di input supportati e requisiti per Vertex AI Gemini API per scoprire di più su quanto segue:

  • Diverse opzioni per fornire un file in una richiesta
  • Tipi di file supportati
  • Tipi MIME supportati e come specificarli
  • Requisiti e best practice per file e richieste multimodali

Cos'altro puoi fare?

Provare altre funzionalità

Scopri come controllare la generazione di contenuti

Puoi anche sperimentare con i prompt e le configurazioni dei modelli utilizzando Vertex AI Studio.

Scopri di più sui modelli supportati

Scopri i modelli disponibili per vari casi d'uso e le relative quote e prezzi.


Inviare un feedback sulla tua esperienza con Vertex AI in Firebase