Entwickler können jetzt ChatGPT- und Whisper-Modelle über unsere API in ihre Anwendungen und Produkte integrieren.
In der vorherigen API-Version wurde die text-davinci-003-Version des Modells verwendet. Dieses Modell verfügte nicht über die kontextbezogene Dialogfunktion und der generierte Inhalt war viel schlechter als ChatGPT ChatGPT taucht in der Community auf, um Dienste bereitzustellen, aber die Stabilität ist nicht sehr gut, da sie von der Webseite abhängt. Nachdem die ChatGPT-Version der API nun offiziell veröffentlicht wurde, ist dies eine großartige Neuigkeit für OpenAI und sogar für die gesamte Branche. In der nächsten Zeit wird es sicherlich eine neue geben API. Eine große Anzahl hervorragender KI-Anwendungen.
Die neueste extern veröffentlichte API wird von gpt-3.5-turbor gesteuert. Dies ist das fortschrittlichste Sprachmodell von OpenAI. Viele Dinge können über diese API erledigt werden.
Das Neue Das Chat-Modell erfordert eine Reihe von Nachrichten als Eingabe, damit es die Funktion eines kontextbezogenen Dialogs haben kann. Natürlich kann es wie zuvor auch Einzelrundenaufgaben ausführen.
Um die neue API zu implementieren, benötigen Sie die Version v0.27.0 des Python-Pakets:
pip3 install openai==v0.27.0
Dann können Sie direkt das openai-Paket verwenden, um mit openai zu interagieren:
import openai openai.api_key = "sk-xxxx" response = openai.ChatCompletion.create( model="gpt-3.5-turbo", messages=[ {"role": "system", "content": "你是一个AI机器人助手。"}, {"role": "user", "content": "哪个队将赢得2023年NBA总冠军?"}, ] )
Der Haupteingabeparameter sind Nachrichten, also eine Nachricht Objekt-Array, jedes Objekt enthält eine Rolle (System, Benutzer, Assistent) und Nachrichteninhalt. Die gesamte Konversation kann eine oder mehrere Nachrichten sein.
Normalerweise besteht das Format der Konversation darin, zunächst eine Systemnachricht zu erhalten, die dabei hilft, das Verhalten des Assistenten festzulegen. Benutzernachrichten werden von den Endbenutzern unserer Anwendung generiert. Dies sind die Fragen, die wir berücksichtigen möchten. Bei der Assistentennachricht handelt es sich um die von openai an uns zurückgesendeten Daten. Sie kann natürlich auch vom Entwickler geschrieben werden.
Wenn wir gemeinsam auf die letzte Assistentennachricht antworten, haben wir die Möglichkeit, sie zu kontextualisieren.
import openai openai.api_key = "sk-xxxx" response = openai.ChatCompletion.create( model="gpt-3.5-turbo", messages=[ {"role": "system", "content": "你是一个AI机器人助手。"}, {"role": "user", "content": "哪个队将赢得2023年NBA总冠军?"}, {"role": "assistant", "content": "湖人队将获得总冠军!"}, {"role": "user", "content": "谁会当选FMVP?"} ] ) result = '' for choice in response.choices: result += choice.message.content print(result)
Zum Beispiel haben wir hier die vorherige Nachricht hinzugefügt, und endlich können wir die kontextbezogene Nachricht erhalten:
Da es tatsächlich schwierig ist, so etwas vorherzusagen, weil viele Faktoren diese Entscheidung beeinflussen können, also Eine möglichst genaue Vorhersage zu treffen, ist schwierig. Allerdings haben die Lakers viele Spieler, die die Möglichkeit haben, den FMVP-Award zu gewinnen, wie LeBron James, Anthony Davis, Kyle Kuzma usw., die möglicherweise FMVP werden.
Das obige ist der detaillierte Inhalt vonEndlich ist es soweit: OpenAI öffnet offiziell die ChatGPT-API. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!