При вызове API Gemini из вашего приложения с помощью Vertex AI для Firebase SDK вы можете предложить модели Gemini сгенерировать текст на основе только текстового ввода.
При желании вы можете вызвать API Vertex AI Gemini на стороне сервера, используя серверные SDK Vertex AI или расширения Firebase для API Gemini .
При желании вы можете попробовать альтернативную версию Gemini API «Google AI», которая обеспечивает бесплатный доступ (в пределах ограничений и там, где это возможно) с использованием Google AI Studio и Google AI SDK .
Если вы решите использовать инструменты и сервисы Google AI, а также Firebase, мы рекомендуем следующее:
- Не используйте Google AI Studio и Google AI SDK с проектом Firebase , который используется вашим рабочим приложением .
- Ознакомившись с тем, как работает API Gemini, перейдите на Vertex AI для Firebase SDK , который имеет множество дополнительных функций, важных для мобильных и веб-приложений, например защиту API от злоупотреблений с помощью Firebase App Check .
Прежде чем вы начнете
Если вы еще этого не сделали, ознакомьтесь с руководством по началу работы с Vertex AI для Firebase SDK . Убедитесь, что вы выполнили все следующее:
Настройте новый или существующий проект Firebase, включая использование тарифного плана Blaze и включение необходимых API.
Подключите свое приложение к Firebase, включая регистрацию вашего приложения и добавление конфигурации Firebase в ваше приложение.
Добавьте SDK и инициализируйте службу Vertex AI и генеративную модель в своем приложении.
После того как вы подключили свое приложение к Firebase, добавили SDK и инициализировали службу Vertex AI и генеративную модель, вы готовы вызвать Gemini API.
Генерировать текст из текстового ввода
Вы можете вызвать Gemini API, введя только текст. Для этих вызовов вам необходимо использовать модель, поддерживающую только текстовые подсказки (например, Gemini 1.5 Pro).
Выберите, хотите ли вы передать ответ в потоковом режиме ( generateContentStream
) или дождаться ответа, пока не будет сгенерирован весь результат ( generateContent
).
Потоковое вещание
Вы можете добиться более быстрого взаимодействия, не дожидаясь получения всего результата от создания модели, а вместо этого используйте потоковую передачу для обработки частичных результатов.
В этом примере показано, как использоватьgenerateContentStream generateContentStream()
для потоковой передачи сгенерированного текста из запроса на подсказку, который включает только текст:
Без потоковой передачи
Альтернативно, вы можете дождаться всего результата вместо потоковой передачи; результат возвращается только после того, как модель завершит весь процесс генерации.
В этом примере показано, как использоватьgenerContent generateContent()
для генерации текста из запроса на подсказку, который включает только текст:
Узнайте, как выбрать модель Gemini и, при необходимости, местоположение , подходящее для вашего варианта использования и приложения.
Что еще можно сделать?
- Узнайте, как считать токены, прежде чем отправлять модели длинные запросы.
- Начните думать о подготовке к работе, включая настройку Firebase App Check для защиты API Gemini от злоупотреблений со стороны неавторизованных клиентов.
Попробуйте другие возможности Gemini API
- Стройте многоходовые разговоры (чат) .
- Генерируйте текст из мультимодальных подсказок (включая текст, изображения, PDF-файлы, видео и аудио).
- Используйте вызов функций для подключения генеративных моделей к внешним системам и информации.
Узнайте, как контролировать создание контента
- Понимание структуры подсказок , включая лучшие практики, стратегии и примеры подсказок.
- Настройте параметры модели, такие как температура и токены максимальной мощности.
- Используйте настройки безопасности , чтобы настроить вероятность получения ответов, которые могут быть расценены как вредные.
Узнайте больше о моделях Gemini
Узнайте о моделях, доступных для различных вариантов использования , а также об их квотах и ценах .Оставьте отзыв о своем опыте использования Vertex AI для Firebase.