Projektowanie promptów

Wywołując funkcję Gemini API, wysyłasz komunikat wraz z Twoją prośbą. Starannie przygotowując te prompty, możesz wpłynąć na to, aby model generował dane wyjściowe dostosowane do Twoich potrzeb. Prompty mogą zawierać pytania, instrukcje, informacje kontekstowe, przykłady z kilku zdjęć oraz częściowe dane wejściowe, które model może wykorzystać do wykonania zadania lub kontynuowania pracy.

Więcej informacji o projektowaniu promptów znajdziesz w dokumentacji Google Cloud:

Inne opcje kontrolowania generowania treści

  • Skonfiguruj parametry modelu, aby kontrolować sposób generowania odpowiedzi przez model. Te parametry to maksymalna liczba tokenów wyjściowych, temperatura, topK i topP.
  • Użyj ustawień bezpieczeństwa, aby dostosować prawdopodobieństwo otrzymania odpowiedzi, które mogą być uznane za szkodliwe, w tym wypowiedzi szerzące nienawiść i treści o charakterze jednoznacznie seksualnym.
  • Ustaw instrukcje systemowe, aby sterować działaniem modelu. Ta funkcja jest jak „wstęp”, który dodajesz przed udostępnieniem modelu w celu uzyskania dalszych instrukcji od użytkownika końcowego.
  • Przekaż schemat odpowiedzi wraz z promptem, aby określić konkretny schemat wyjściowy. Ta funkcja jest najczęściej używana do generowania danych wyjściowych w formacie JSON, ale można jej też używać do zadań klasyfikacji (np. gdy chcesz, aby model używał określonych etykiet).