Je nach Anwendungsfall und gewünschter Kontrolle können Sie die Inhaltsgenerierung auf unterschiedliche Weise steuern.
Prompt-Design
Informieren Sie sich über das Design von Prompts, damit Sie das Modell beeinflussen können, um eine Ausgabe zu generieren, die Ihren Anforderungen entspricht.
Sie erfahren beispielsweise, wie Sie relevante Informationen zur Aufgabe strukturiert angeben.
Modellparameter
Konfigurieren Sie Modellparameter, um zu steuern, wie das Modell eine Antwort generiert. Zu diesen Parametern können „max output tokens“, „temperature“, „topK“ und „topP“ gehören.
Sie können beispielsweise den Parameter temperature
anpassen, um den Grad der Zufälligkeit in Antworten zu steuern.
Sicherheitseinstellungen
Mit den Sicherheitseinstellungen können Sie die Wahrscheinlichkeit anpassen, dass Sie Antworten erhalten, die als schädlich eingestuft werden könnten. Mit diesen Einstellungen können Sie die Ausgabe im Hinblick auf mögliche Hassreden, Belästigungen, sexuell explizite Inhalte und gefährliche Inhalte steuern.
Sie können beispielsweise Antworten blockieren, die schädliche Waren, Dienstleistungen und Aktivitäten fördern oder den Zugriff darauf ermöglichen.
Systemanweisungen
Legen Sie Systemanweisungen fest, um das Verhalten des Modells zu steuern. Diese Funktion ist wie eine „Präambel“, die Sie hinzufügen, bevor das Modell weiteren Anweisungen des Endnutzers ausgesetzt wird.
Sie können dem Modell beispielsweise mitteilen, dass es Antworten wie ein Pirat zurückgeben soll oder dass Antworten in einem bestimmten Format zurückgegeben werden sollen.
Strukturierte Ausgabe mit Antwortschema
Geben Sie ein Antwortschema zusammen mit dem Prompt an, um ein bestimmtes Ausgabeschema anzugeben. Diese Funktion wird am häufigsten beim Generieren von JSON-Ausgabe verwendet, kann aber auch für Klassifizierungsaufgaben verwendet werden, z. B. wenn das Modell bestimmte Labels oder Tags verwenden soll.