Les développeurs peuvent désormais intégrer les modèles ChatGPT et Whisper dans leurs applications et produits via notre API.
Dans la version précédente de l'API, la version text-davinci-003 du modèle était utilisée. Ce modèle n'avait pas de fonction de dialogue contextuel et le contenu généré était bien pire que ChatGPT. Par conséquent, de nombreuses versions Web packagées de. ChatGPT est apparu dans la communauté. Des projets pour fournir des services, mais la stabilité n'est pas très bonne car elle dépend de la page web. Maintenant que la version ChatGPT de l'API a été officiellement publiée, c'est une excellente nouvelle pour les développeurs. Bien sûr, cela revêt une grande importance pour OpenAI et même pour l'ensemble du secteur. Dans la prochaine période, il y aura forcément un A. un grand nombre d’excellentes applications d’IA.
La dernière API publiée en externe est pilotée par gpt-3.5-turbor Il s'agit du modèle de langage le plus avancé d'OpenAI. De nombreuses choses peuvent être réalisées via cette API.
Le nouveau Le modèle de chat nécessite une série de messages en entrée, afin qu'il puisse avoir la fonction de dialogue contextuel. Bien sûr, il peut également effectuer des tâches à un seul tour, comme auparavant.
Pour implémenter la nouvelle API, vous avez besoin de la version v0.27.0 du package Python :
pip3 install openai==v0.27.0
Ensuite, vous pouvez directement utiliser le package openai pour interagir avec openai :
import openai openai.api_key = "sk-xxxx" response = openai.ChatCompletion.create( model="gpt-3.5-turbo", messages=[ {"role": "system", "content": "你是一个AI机器人助手。"}, {"role": "user", "content": "哪个队将赢得2023年NBA总冠军?"}, ] )
Le paramètre d'entrée principal est messages, qui est un message object Array, chaque objet contient un rôle (système, utilisateur, assistant) et le contenu du message. La conversation entière peut être un ou plusieurs messages.
Normalement, le format de la conversation est d'avoir d'abord un message système. Les messages système aident à définir le comportement de l'assistant. Les messages utilisateurs sont générés par les utilisateurs finaux de notre application, ce sont les questions que nous souhaitons consulter. Le message de l'assistant est constitué des données qui nous sont renvoyées par openai. Bien sûr, il peut également être écrit par le développeur.
Lorsque nous répondrons ensemble au dernier message de l'assistant, nous aurons la possibilité de le contextualiser.
import openai openai.api_key = "sk-xxxx" response = openai.ChatCompletion.create( model="gpt-3.5-turbo", messages=[ {"role": "system", "content": "你是一个AI机器人助手。"}, {"role": "user", "content": "哪个队将赢得2023年NBA总冠军?"}, {"role": "assistant", "content": "湖人队将获得总冠军!"}, {"role": "user", "content": "谁会当选FMVP?"} ] ) result = '' for choice in response.choices: result += choice.message.content print(result)
Par exemple, nous avons ajouté le message précédent ici, et finalement nous pouvons obtenir le message contextuel :
Comme il est en fait difficile de prédire ce genre de chose, car de nombreux facteurs peuvent affecter cette décision, donc faire La prédiction la plus précise est difficile. Cependant, les Lakers comptent de nombreux joueurs qui ont l'opportunité de remporter le prix FMVP, comme LeBron James, Anthony Davis, Kyle Kuzma, etc., qui pourraient devenir FMVP.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!