


OpenAI lance une mise à jour majeure de l'API de chatbot GPT pour les développeurs et baisse les prix
News le 14 juin, OpenAI a annoncé aujourd'hui une mise à jour majeure de son API de grand modèle de langage (y compris GPT-4 et gpt-3.5-turbo), notamment l'ajout de nouvelles fonctions d'appel de fonctions, la réduction des coûts d'utilisation et la prise en charge de gpt. - Le modèle 3,5 turbo propose une version à 16 000 jetons.
Le Large Language Model (LLM) est une technologie d'intelligence artificielle capable de traiter le langage naturel. Sa « fenêtre contextuelle » est équivalente à une mémoire à court terme qui peut stocker le contenu d'entrée ou le contenu des dialogues du chatbot. Dans les modèles de langage, augmenter la taille de la fenêtre contextuelle est devenu une course technique, et Anthropic a récemment annoncé que son modèle de langage Claude peut fournir 75 000 options de fenêtre contextuelle de jetons. De plus, OpenAI a également développé une version GPT-4 à 32 000 jetons, mais elle n'a pas encore été lancée publiquement.
OpenAI vient de lancer une nouvelle version de gpt-3.5-turbo avec 16 000 fenêtres contextuelles, nommée "gpt-3.5-turbo-16k", qui peut gérer des entrées jusqu'à 16 000 jetons de longueur, ce qui signifie qu'environ 20 peuvent être traités en même temps. un temps de pages de texte, ce qui constitue une grande amélioration pour les développeurs qui ont besoin de modéliser le traitement et de générer des blocs de texte plus volumineux.
En plus de ce changement, OpenAI répertorie au moins quatre autres nouvelles fonctionnalités majeures :
- Introduction des capacités d'appel de fonctions dans l'API Chat Completions
- Versions améliorées de GPT-4 et gpt-3.5-turbo et Le "plus orientable" version
- a réduit le prix du modèle embarqué "ada" de 75%
- a réduit le prix du jeton d'entrée du modèle gpt-3.5-turbo de 25%
La fonction d'appel de fonction permet le développement Cela facilite la tâche pour aux développeurs de créer des chatbots capables d'appeler des outils externes, de convertir le langage naturel en appels d'API externes ou d'effectuer des requêtes de base de données. Par exemple, il peut convertir une entrée telle que « Envoyer un e-mail à Anya pour voir si elle veut un café vendredi prochain » en un appel de fonction comme « send_email (to : string, body : string) ». En particulier, cette fonctionnalité permet également aux utilisateurs d’API de générer plus facilement une sortie au format JSON, ce qui était auparavant difficile à réaliser.
Concernant l'aspect « plus contrôlable », qui est un terme technique désignant comment faire en sorte que LLM se comporte comme vous le souhaitez, OpenAI indique que son nouveau modèle « gpt-3.5-turbo-0613 » inclura « des mises à jour via des messages système ». Fonction de contrôle fiable. Un message système est une instruction spéciale entrée dans l'API qui indique au modèle comment se comporter, par exemple "Vous êtes Grimes et vous ne parlez que de milkshakes."
En plus des améliorations fonctionnelles, OpenAI permet également une réduction des coûts assez substantielle. Notamment, le prix symbolique du modèle populaire gpt-3.5-turbo est réduit de 25 %. Cela signifie que les développeurs peuvent désormais utiliser ce modèle pour environ 0,0015 USD pour 1 000 jetons et 0,002 USD pour 1 000 jetons, ce qui équivaut à environ 700 pages de texte par dollar. Le modèle gpt-3,5-turbo-16k est au prix de 0,003 USD pour 1 000 jetons et de 0,004 USD pour 1 000 jetons.
De plus, IT House a remarqué qu'OpenAI a également réduit de 75 % le prix de son modèle d'intégration « text-embedding-ada-002 ». Les modèles d'intégration sont une technique qui permet aux ordinateurs de comprendre des mots et des concepts, en convertissant le langage naturel en un langage numérique que les machines peuvent comprendre, ce qui est important pour des tâches telles que la recherche de texte et la recommandation de contenu pertinent.
Étant donné qu'OpenAI met constamment à jour ses modèles, les anciens modèles ne persisteront pas. Aujourd'hui, la société a également annoncé qu'elle commençait à retirer certaines versions antérieures du modèle, notamment gpt-3.5-turbo-0301 et gpt-4-0314. Les développeurs peuvent continuer à utiliser ces modèles jusqu'au 13 septembre, après quoi ces anciens modèles ne seront plus disponibles, a indiqué la société. Il convient de noter que l’API GPT-4 d’OpenAI est toujours sur la liste d’attente et n’est pas encore complètement ouverte.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Traducteur | Bugatti Review | Chonglou Cet article décrit comment utiliser le moteur d'inférence GroqLPU pour générer des réponses ultra-rapides dans JanAI et VSCode. Tout le monde travaille à la création de meilleurs grands modèles de langage (LLM), tels que Groq, qui se concentre sur le côté infrastructure de l'IA. Une réponse rapide de ces grands modèles est essentielle pour garantir que ces grands modèles réagissent plus rapidement. Ce didacticiel présentera le moteur d'analyse GroqLPU et comment y accéder localement sur votre ordinateur portable à l'aide de l'API et de JanAI. Cet article l'intégrera également dans VSCode pour nous aider à générer du code, à refactoriser le code, à saisir la documentation et à générer des unités de test. Cet article créera gratuitement notre propre assistant de programmation d’intelligence artificielle. Introduction au moteur d'inférence GroqLPU Groq

LeanCopilot, cet outil mathématique formel vanté par de nombreux mathématiciens comme Terence Tao, a encore évolué ? Tout à l'heure, Anima Anandkumar, professeur à Caltech, a annoncé que l'équipe avait publié une version étendue de l'article LeanCopilot et mis à jour la base de code. Adresse de l'article image : https://arxiv.org/pdf/2404.12534.pdf Les dernières expériences montrent que cet outil Copilot peut automatiser plus de 80 % des étapes de preuve mathématique ! Ce record est 2,3 fois meilleur que le précédent record d’Esope. Et, comme auparavant, il est open source sous licence MIT. Sur la photo, il s'agit de Song Peiyang, un garçon chinois.

Source de l'image@visualchinesewen|Wang Jiwei De « humain + RPA » à « humain + IA générative + RPA », comment le LLM affecte-t-il l'interaction homme-machine RPA ? D'un autre point de vue, comment le LLM affecte-t-il la RPA du point de vue de l'interaction homme-machine ? La RPA, qui affecte l'interaction homme-machine dans le développement de programmes et l'automatisation des processus, sera désormais également modifiée par le LLM ? Comment le LLM affecte-t-il l’interaction homme-machine ? Comment l’IA générative modifie-t-elle l’interaction homme-machine de la RPA ? Apprenez-en davantage dans un article : L'ère des grands modèles arrive, et l'IA générative basée sur LLM transforme rapidement l'interaction homme-machine RPA ; l'IA générative redéfinit l'interaction homme-machine, et LLM affecte les changements dans l'architecture logicielle RPA. Si vous demandez quelle est la contribution de la RPA au développement et à l’automatisation des programmes, l’une des réponses est qu’elle a modifié l’interaction homme-machine (HCI, h).

Plaud, la société derrière le Plaud Note AI Voice Recorder (disponible sur Amazon pour 159 $), a annoncé un nouveau produit. Surnommé NotePin, l’appareil est décrit comme une capsule mémoire AI, et comme le Humane AI Pin, il est portable. Le NotePin est

Pour en savoir plus sur l'AIGC, veuillez visiter : 51CTOAI.x Community https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou est différent de la banque de questions traditionnelle que l'on peut voir partout sur Internet. nécessite de sortir des sentiers battus. Les grands modèles linguistiques (LLM) sont de plus en plus importants dans les domaines de la science des données, de l'intelligence artificielle générative (GenAI) et de l'intelligence artificielle. Ces algorithmes complexes améliorent les compétences humaines et stimulent l’efficacité et l’innovation dans de nombreux secteurs, devenant ainsi la clé permettant aux entreprises de rester compétitives. LLM a un large éventail d'applications. Il peut être utilisé dans des domaines tels que le traitement du langage naturel, la génération de texte, la reconnaissance vocale et les systèmes de recommandation. En apprenant de grandes quantités de données, LLM est capable de générer du texte

La génération améliorée de récupération de graphiques (GraphRAG) devient progressivement populaire et est devenue un complément puissant aux méthodes de recherche vectorielles traditionnelles. Cette méthode tire parti des caractéristiques structurelles des bases de données graphiques pour organiser les données sous forme de nœuds et de relations, améliorant ainsi la profondeur et la pertinence contextuelle des informations récupérées. Les graphiques présentent un avantage naturel dans la représentation et le stockage d’informations diverses et interdépendantes, et peuvent facilement capturer des relations et des propriétés complexes entre différents types de données. Les bases de données vectorielles sont incapables de gérer ce type d'informations structurées et se concentrent davantage sur le traitement de données non structurées représentées par des vecteurs de grande dimension. Dans les applications RAG, la combinaison de données graphiques structurées et de recherche de vecteurs de texte non structuré nous permet de profiter des avantages des deux en même temps, ce dont discutera cet article. structure

À mesure que les performances des modèles de langage open source à grande échelle continuent de s'améliorer, les performances d'écriture et d'analyse du code, des recommandations, du résumé de texte et des paires questions-réponses (QA) se sont toutes améliorées. Mais lorsqu'il s'agit d'assurance qualité, le LLM ne répond souvent pas aux problèmes liés aux données non traitées, et de nombreux documents internes sont conservés au sein de l'entreprise pour garantir la conformité, les secrets commerciaux ou la confidentialité. Lorsque ces documents sont interrogés, LLM peut halluciner et produire un contenu non pertinent, fabriqué ou incohérent. Une technique possible pour relever ce défi est la génération augmentée de récupération (RAG). Cela implique le processus d'amélioration des réponses en référençant des bases de connaissances faisant autorité au-delà de la source de données de formation pour améliorer la qualité et la précision de la génération. Le système RAG comprend un système de récupération permettant de récupérer des fragments de documents pertinents du corpus

Google AI a commencé à fournir aux développeurs un accès à des fenêtres contextuelles étendues et à des fonctionnalités économiques, à commencer par le modèle de langage large (LLM) Gemini 1.5 Pro. Auparavant disponible via une liste d'attente, la fenêtre contextuelle complète de 2 millions de jetons
