Maison Périphériques technologiques IA OpenAI lance une mise à jour majeure de l'API de chatbot GPT pour les développeurs et baisse les prix

OpenAI lance une mise à jour majeure de l'API de chatbot GPT pour les développeurs et baisse les prix

Jun 15, 2023 am 11:03 AM
llm

OpenAI 为开发者推出 GPT 聊天机器人 API 大更新,同时降低价格

News le 14 juin, OpenAI a annoncé aujourd'hui une mise à jour majeure de son API de grand modèle de langage (y compris GPT-4 et gpt-3.5-turbo), notamment l'ajout de nouvelles fonctions d'appel de fonctions, la réduction des coûts d'utilisation et la prise en charge de gpt. - Le modèle 3,5 turbo propose une version à 16 000 jetons.

Le Large Language Model (LLM) est une technologie d'intelligence artificielle capable de traiter le langage naturel. Sa « fenêtre contextuelle » est équivalente à une mémoire à court terme qui peut stocker le contenu d'entrée ou le contenu des dialogues du chatbot. Dans les modèles de langage, augmenter la taille de la fenêtre contextuelle est devenu une course technique, et Anthropic a récemment annoncé que son modèle de langage Claude peut fournir 75 000 options de fenêtre contextuelle de jetons. De plus, OpenAI a également développé une version GPT-4 à 32 000 jetons, mais elle n'a pas encore été lancée publiquement.

OpenAI vient de lancer une nouvelle version de gpt-3.5-turbo avec 16 000 fenêtres contextuelles, nommée "gpt-3.5-turbo-16k", qui peut gérer des entrées jusqu'à 16 000 jetons de longueur, ce qui signifie qu'environ 20 peuvent être traités en même temps. un temps de pages de texte, ce qui constitue une grande amélioration pour les développeurs qui ont besoin de modéliser le traitement et de générer des blocs de texte plus volumineux.

En plus de ce changement, OpenAI répertorie au moins quatre autres nouvelles fonctionnalités majeures :

  • Introduction des capacités d'appel de fonctions dans l'API Chat Completions
  • Versions améliorées de GPT-4 et gpt-3.5-turbo et Le "plus orientable" version
  • a réduit le prix du modèle embarqué "ada" de 75%
  • a réduit le prix du jeton d'entrée du modèle gpt-3.5-turbo de 25%

La fonction d'appel de fonction permet le développement Cela facilite la tâche pour aux développeurs de créer des chatbots capables d'appeler des outils externes, de convertir le langage naturel en appels d'API externes ou d'effectuer des requêtes de base de données. Par exemple, il peut convertir une entrée telle que « Envoyer un e-mail à Anya pour voir si elle veut un café vendredi prochain » en un appel de fonction comme « send_email (to : string, body : string) ». En particulier, cette fonctionnalité permet également aux utilisateurs d’API de générer plus facilement une sortie au format JSON, ce qui était auparavant difficile à réaliser.

Concernant l'aspect « plus contrôlable », qui est un terme technique désignant comment faire en sorte que LLM se comporte comme vous le souhaitez, OpenAI indique que son nouveau modèle « gpt-3.5-turbo-0613 » inclura « des mises à jour via des messages système ». Fonction de contrôle fiable. Un message système est une instruction spéciale entrée dans l'API qui indique au modèle comment se comporter, par exemple "Vous êtes Grimes et vous ne parlez que de milkshakes."

En plus des améliorations fonctionnelles, OpenAI permet également une réduction des coûts assez substantielle. Notamment, le prix symbolique du modèle populaire gpt-3.5-turbo est réduit de 25 %. Cela signifie que les développeurs peuvent désormais utiliser ce modèle pour environ 0,0015 USD pour 1 000 jetons et 0,002 USD pour 1 000 jetons, ce qui équivaut à environ 700 pages de texte par dollar. Le modèle gpt-3,5-turbo-16k est au prix de 0,003 USD pour 1 000 jetons et de 0,004 USD pour 1 000 jetons.

De plus, IT House a remarqué qu'OpenAI a également réduit de 75 % le prix de son modèle d'intégration « text-embedding-ada-002 ». Les modèles d'intégration sont une technique qui permet aux ordinateurs de comprendre des mots et des concepts, en convertissant le langage naturel en un langage numérique que les machines peuvent comprendre, ce qui est important pour des tâches telles que la recherche de texte et la recommandation de contenu pertinent.

Étant donné qu'OpenAI met constamment à jour ses modèles, les anciens modèles ne persisteront pas. Aujourd'hui, la société a également annoncé qu'elle commençait à retirer certaines versions antérieures du modèle, notamment gpt-3.5-turbo-0301 et gpt-4-0314. Les développeurs peuvent continuer à utiliser ces modèles jusqu'au 13 septembre, après quoi ces anciens modèles ne seront plus disponibles, a indiqué la société. Il convient de noter que l’API GPT-4 d’OpenAI est toujours sur la liste d’attente et n’est pas encore complètement ouverte.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

AI Hentai Generator

AI Hentai Generator

Générez AI Hentai gratuitement.

Article chaud

R.E.P.O. Crystals d'énergie expliqués et ce qu'ils font (cristal jaune)
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Meilleurs paramètres graphiques
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Comment réparer l'audio si vous n'entendez personne
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25: Comment déverrouiller tout dans Myrise
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Guide étape par étape pour utiliser Groq Llama 3 70B localement Guide étape par étape pour utiliser Groq Llama 3 70B localement Jun 10, 2024 am 09:16 AM

Traducteur | Bugatti Review | Chonglou Cet article décrit comment utiliser le moteur d'inférence GroqLPU pour générer des réponses ultra-rapides dans JanAI et VSCode. Tout le monde travaille à la création de meilleurs grands modèles de langage (LLM), tels que Groq, qui se concentre sur le côté infrastructure de l'IA. Une réponse rapide de ces grands modèles est essentielle pour garantir que ces grands modèles réagissent plus rapidement. Ce didacticiel présentera le moteur d'analyse GroqLPU et comment y accéder localement sur votre ordinateur portable à l'aide de l'API et de JanAI. Cet article l'intégrera également dans VSCode pour nous aider à générer du code, à refactoriser le code, à saisir la documentation et à générer des unités de test. Cet article créera gratuitement notre propre assistant de programmation d’intelligence artificielle. Introduction au moteur d'inférence GroqLPU Groq

Les Chinois de Caltech utilisent l'IA pour renverser les preuves mathématiques ! Accélérer 5 fois a choqué Tao Zhexuan, 80% des étapes mathématiques sont entièrement automatisées Les Chinois de Caltech utilisent l'IA pour renverser les preuves mathématiques ! Accélérer 5 fois a choqué Tao Zhexuan, 80% des étapes mathématiques sont entièrement automatisées Apr 23, 2024 pm 03:01 PM

LeanCopilot, cet outil mathématique formel vanté par de nombreux mathématiciens comme Terence Tao, a encore évolué ? Tout à l'heure, Anima Anandkumar, professeur à Caltech, a annoncé que l'équipe avait publié une version étendue de l'article LeanCopilot et mis à jour la base de code. Adresse de l'article image : https://arxiv.org/pdf/2404.12534.pdf Les dernières expériences montrent que cet outil Copilot peut automatiser plus de 80 % des étapes de preuve mathématique ! Ce record est 2,3 fois meilleur que le précédent record d’Esope. Et, comme auparavant, il est open source sous licence MIT. Sur la photo, il s'agit de Song Peiyang, un garçon chinois.

De « humain + RPA » à « humain + IA générative + RPA », comment le LLM affecte-t-il l'interaction homme-machine RPA ? De « humain + RPA » à « humain + IA générative + RPA », comment le LLM affecte-t-il l'interaction homme-machine RPA ? Jun 05, 2023 pm 12:30 PM

Source de l'image@visualchinesewen|Wang Jiwei De « humain + RPA » à « humain + IA générative + RPA », comment le LLM affecte-t-il l'interaction homme-machine RPA ? D'un autre point de vue, comment le LLM affecte-t-il la RPA du point de vue de l'interaction homme-machine ? La RPA, qui affecte l'interaction homme-machine dans le développement de programmes et l'automatisation des processus, sera désormais également modifiée par le LLM ? Comment le LLM affecte-t-il l’interaction homme-machine ? Comment l’IA générative modifie-t-elle l’interaction homme-machine de la RPA ? Apprenez-en davantage dans un article : L'ère des grands modèles arrive, et l'IA générative basée sur LLM transforme rapidement l'interaction homme-machine RPA ; l'IA générative redéfinit l'interaction homme-machine, et LLM affecte les changements dans l'architecture logicielle RPA. Si vous demandez quelle est la contribution de la RPA au développement et à l’automatisation des programmes, l’une des réponses est qu’elle a modifié l’interaction homme-machine (HCI, h).

Plaud lance l'enregistreur portable NotePin AI pour 169 $ Plaud lance l'enregistreur portable NotePin AI pour 169 $ Aug 29, 2024 pm 02:37 PM

Plaud, la société derrière le Plaud Note AI Voice Recorder (disponible sur Amazon pour 159 $), a annoncé un nouveau produit. Surnommé NotePin, l’appareil est décrit comme une capsule mémoire AI, et comme le Humane AI Pin, il est portable. Le NotePin est

Sept questions d'entretien technique Cool GenAI et LLM Sept questions d'entretien technique Cool GenAI et LLM Jun 07, 2024 am 10:06 AM

Pour en savoir plus sur l'AIGC, veuillez visiter : 51CTOAI.x Community https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou est différent de la banque de questions traditionnelle que l'on peut voir partout sur Internet. nécessite de sortir des sentiers battus. Les grands modèles linguistiques (LLM) sont de plus en plus importants dans les domaines de la science des données, de l'intelligence artificielle générative (GenAI) et de l'intelligence artificielle. Ces algorithmes complexes améliorent les compétences humaines et stimulent l’efficacité et l’innovation dans de nombreux secteurs, devenant ainsi la clé permettant aux entreprises de rester compétitives. LLM a un large éventail d'applications. Il peut être utilisé dans des domaines tels que le traitement du langage naturel, la génération de texte, la reconnaissance vocale et les systèmes de recommandation. En apprenant de grandes quantités de données, LLM est capable de générer du texte

GraphRAG amélioré pour la récupération de graphes de connaissances (implémenté sur la base du code Neo4j) GraphRAG amélioré pour la récupération de graphes de connaissances (implémenté sur la base du code Neo4j) Jun 12, 2024 am 10:32 AM

La génération améliorée de récupération de graphiques (GraphRAG) devient progressivement populaire et est devenue un complément puissant aux méthodes de recherche vectorielles traditionnelles. Cette méthode tire parti des caractéristiques structurelles des bases de données graphiques pour organiser les données sous forme de nœuds et de relations, améliorant ainsi la profondeur et la pertinence contextuelle des informations récupérées. Les graphiques présentent un avantage naturel dans la représentation et le stockage d’informations diverses et interdépendantes, et peuvent facilement capturer des relations et des propriétés complexes entre différents types de données. Les bases de données vectorielles sont incapables de gérer ce type d'informations structurées et se concentrent davantage sur le traitement de données non structurées représentées par des vecteurs de grande dimension. Dans les applications RAG, la combinaison de données graphiques structurées et de recherche de vecteurs de texte non structuré nous permet de profiter des avantages des deux en même temps, ce dont discutera cet article. structure

Visualisez l'espace vectoriel FAISS et ajustez les paramètres RAG pour améliorer la précision des résultats Visualisez l'espace vectoriel FAISS et ajustez les paramètres RAG pour améliorer la précision des résultats Mar 01, 2024 pm 09:16 PM

À mesure que les performances des modèles de langage open source à grande échelle continuent de s'améliorer, les performances d'écriture et d'analyse du code, des recommandations, du résumé de texte et des paires questions-réponses (QA) se sont toutes améliorées. Mais lorsqu'il s'agit d'assurance qualité, le LLM ne répond souvent pas aux problèmes liés aux données non traitées, et de nombreux documents internes sont conservés au sein de l'entreprise pour garantir la conformité, les secrets commerciaux ou la confidentialité. Lorsque ces documents sont interrogés, LLM peut halluciner et produire un contenu non pertinent, fabriqué ou incohérent. Une technique possible pour relever ce défi est la génération augmentée de récupération (RAG). Cela implique le processus d'amélioration des réponses en référençant des bases de connaissances faisant autorité au-delà de la source de données de formation pour améliorer la qualité et la précision de la génération. Le système RAG comprend un système de récupération permettant de récupérer des fragments de documents pertinents du corpus

Google AI annonce Gemini 1.5 Pro et Gemma 2 pour les développeurs Google AI annonce Gemini 1.5 Pro et Gemma 2 pour les développeurs Jul 01, 2024 am 07:22 AM

Google AI a commencé à fournir aux développeurs un accès à des fenêtres contextuelles étendues et à des fonctionnalités économiques, à commencer par le modèle de langage large (LLM) Gemini 1.5 Pro. Auparavant disponible via une liste d'attente, la fenêtre contextuelle complète de 2 millions de jetons

See all articles