Gdy dzwonisz na numer Gemini API, wysyłasz wraz z prośbą prompt. Starannie formułując prompty, możesz pokierować modelem tak, aby uzyskać wyniki odpowiadające Twoim potrzebom. Prompty mogą zawierać pytania, instrukcje, informacje kontekstowe, przykłady z kilku zdjęć oraz częściowe dane wejściowe, które model może wykorzystać do wykonania zadania lub kontynuowania pracy.
Więcej informacji o projektowaniu promptów znajdziesz w dokumentacji Google Cloud:
Inne opcje kontrolowania generowania treści
- Skonfiguruj parametry modelu, aby kontrolować, jak model wygeneruje odpowiedź. Do tych parametrów należą: maksymalna liczba tokenów wyjściowych, temperatura, topK i topP.
- Użyj ustawień bezpieczeństwa, aby dostosować prawdopodobieństwo otrzymania odpowiedzi, które mogą być uznane za szkodliwe, w tym wypowiedzi szerzące nienawiść i treści o charakterze jednoznacznie seksualnym.
- Ustaw instrukcje systemowe, aby kierować działaniem modelu. Ta funkcja jest jak „wstęp”, który dodajesz przed udostępnieniem modelu w celu uzyskania dalszych instrukcji od użytkownika końcowego.
- Przekaż schemat odpowiedzi wraz z promptem, aby określić konkretny schemat wyjściowy. Ta funkcja jest najczęściej używana do generowania danych wyjściowych w formacie JSON, ale można jej też używać do zadań klasyfikacji (np. gdy chcesz, aby model używał określonych etykiet).