L'API OpenAI peut être appliquée à presque toutes les tâches impliquant la compréhension ou la génération d'un langage naturel ou de code. Nous proposons une gamme de modèles avec différents niveaux de puissance pour différentes tâches, avec la possibilité d'affiner votre propre modèle personnalisé. Ces modèles peuvent être utilisés dans tous les domaines, de la génération de contenu à la recherche sémantique et à la classification.
L'API OpenAI utilise des clés API pour l'authentification. Visitez votre page Clés API pour récupérer la clé API que vous utiliserez dans vos requêtes.
N'oubliez pas que votre clé API est secrète ! Ne le partagez pas avec d’autres personnes et ne l’exposez pas dans un code côté client (navigateur, application). Les demandes de production doivent être acheminées via votre propre serveur backend et vos clés API peuvent être chargées en toute sécurité à partir de variables d'environnement ou d'un service de gestion de clés.
Toutes les requêtes API doivent inclure votre clé API dans l'en-tête AuthorizationHTTP, comme ceci :
Authorization: Bearer YOUR_API_KEY
Pour les utilisateurs qui appartiennent à plusieurs organisations, vous pouvez transmettre un en-tête pour spécifier quelle organisation utiliser pour les requêtes API. L'utilisation de ces requêtes API sera comptabilisée dans le quota d'abonnement de l'organisation spécifiée.
Exemple de commande curl :
curl https://api.openai.com/v1/models \ -H 'Authorization: Bearer YOUR_API_KEY' \ -H 'OpenAI-Organization: org-Kh417O0F3ISLtdXBdafrKQl2'
Vous pouvez coller la commande ci-dessous dans votre terminal pour exécuter votre première requête API. Assurez-vous de remplacer YOUR_API_KEY par votre clé API secrète.
curl https://api.openai.com/v1/chat/completions \ -H 'Content-Type: application/json' \ -H 'Authorization: Bearer YOUR_API_KEY' \ -d '{ "model": "gpt-3.5-turbo", "messages": [{"role": "user", "content": "Say this is a test!"}], "temperature": 0.7 }'
Cette requête interroge le modèle pour compléter le texte qui commence par l'invite « Dites que ceci est un testgpt-3.5-turbo ». Vous devriez recevoir une réponse similaire à la suivante :
{ "id":"chatcmpl-abc123", "object":"chat.completion", "created":1677858242, "model":"gpt-3.5-turbo-0301", "usage":{ "prompt_tokens":13, "completion_tokens":7, "total_tokens":20 }, "choices":[ { "message":{ "role":"assistant", "content":"\n\nThis is a test!" }, "finish_reason":"stop", "index":0 } ] }
Vous avez maintenant généré votre première discussion jusqu'à la fin. Nous pouvons voir finish_reasonisstop ce qui signifie que l'API a renvoyé l'achèvement complet de la génération du modèle. Dans la requête ci-dessus, nous n'avons généré qu'un seul message, mais vous pouvez définir le paramètre n pour générer plusieurs sélections de messages. Dans cet exemple, gpt-3.5-turbo est davantage utilisé pour les tâches traditionnelles de complétion de texte. Le modèle est également optimisé pour les applications de chat.
curl https://api.openai.com/v1/chat/completions \ -H 'Content-Type: application/json' \ -H 'Authorization: Bearer YOUR_API_KEY' \ -d '{ "model": "gpt-3.5-turbo", "messages": [{"role": "user", "content": "Hello!"}] }'
{ "model": "gpt-3.5-turbo", "messages": [{"role": "user", "content": "Hello!"}] }
{ "id": "chatcmpl-123", "object": "chat.completion", "created": 1677652288, "choices": [{ "index": 0, "message": { "role": "assistant", "content": "\n\nHello there, how may I assist you today?", }, "finish_reason": "stop" }], "usage": { "prompt_tokens": 9, "completion_tokens": 12, "total_tokens": 21 } }
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!