Attendez, ChatGPT ne tombera pas !
Écrit par Yan Zheng
Ça n'avait plus été aussi animé depuis longtemps ! Un produit qui peut susciter de grandes discussions parmi les gens du monde entier est si précieux. J'y ai pensé alors que mon cerveau tournait à grande vitesse, et il semble que la seule façon de le décrire soit d'utiliser le « moment iPhone » du PDG de Nvidia, Jensen Huang. pour le décrire.
Cinq jours après son lancement, le nombre d'utilisateurs a dépassé le million. Deux mois, durée de vie mensuelle de 100 millions.
Alors, quel est le retour sur investissement de la participation à ChatGPT ? L'éditeur a trié le modèle de coûts et de revenus de ChatGPT et a brièvement examiné la présentation et les politiques associées des géants nationaux, ainsi que la manière dont les développeurs devraient y investir. J'espère que cela pourra aider tout le monde.
1. Combien ça coûte de construire un ChatGPT
L'arrivée de ChatGPT, bien que ce soit le "moment iPhone", le coût est scandaleux. Voici une compilation des données de calcul des institutions concernées, divisées en trois aspects : coût d'investissement initial, coût de formation et coût de fonctionnement.
1. Coût d'investissement initial
Guosheng Securities, une société de valeurs mobilières nationale bien connue, a calculé le coût de la puissance de calcul requise par OpenAI à ce stade. En prenant en moyenne environ 13 millions de visiteurs uniques utilisant ChatGPT chaque jour en janvier de cette année, la demande de puces correspondante est de plus de 30 000 GPU NVIDIA A100, le coût d'investissement initial est d'environ 800 millions de dollars américains et la facture d'électricité quotidienne sera également d'environ 50 000 dollars américains.
2. Coût de formation
Uniquement la puce et la base de puissance de calcul, le coût de formation du modèle est également un seuil important. Guosheng Securities estime, sur la base du nombre de paramètres et de jetons, que le coût de la formation GPT-3 est d'environ 1,4 million de dollars ; en utilisant la même formule de calcul pour certains modèles LLM plus importants, le coût de la formation se situe entre 2 et 12 millions de dollars. .
Photo : Aperçu des paramètres GPT de chaque génération
(Dans le cadre du grand modèle, le modèle GPT utilisé par ChatGPT a rapidement augmenté le nombre de paramètres dans chaque génération, ainsi que les exigences en matière de volume de données et les coûts de pré-formation ont également augmenté rapidement. )
3. Coûts de fonctionnement
Le premier est le coût de la réponse : Musk a demandé un jour à ChatGPT sur la plateforme Twitter "Quel est le coût moyen de chaque chat ?" Altmann, PDG d'OpenAI, s'attend à être légèrement amer : le coût moyen du chat GPT est de « centimes à un chiffre », et a déclaré que des efforts doivent être faits pour optimiser les coûts.
Alors, c'est quoi ce « un chiffre » ? L'auteur a obtenu la réponse sur la base des données suivantes.
· En janvier 2023, un rapport d'analyse de la banque d'investissement Morgan Stanley indiquait que le coût d'une réponse à ChatGPT est environ 6 fois à 28 fois le coût moyen d'une requête de recherche Google.
· Selon une dernière analyse de Morgan Stanley, le coût moyen des 3,3 billions de recherches effectuées par Google l'année dernière était d'environ 0,2 centime chacune.
Par conséquent, on peut voir que le coût de réponse au chat ChatGPT est de 1,2 à 5,6 cents.
Alors, combien de consultations y a-t-il chaque jour ? , Selon les données de Similarweb, fin janvier 2023, le site chat.openai.com (le site officiel de ChatGPT) avait attiré jusqu'à 25 millions de visiteurs quotidiens au cours de la semaine du 27 janvier au 3 février.
En supposant que chaque utilisateur pose environ 10 questions chaque jour, il y a environ 250 millions de consultations chaque jour. On peut alors conclure que rien que pour supporter le coût du chat, les dépenses quotidiennes peuvent atteindre 3 à 140 millions de dollars américains. (Bien sûr, le coût diminuera lentement.)
Des dizaines de millions de dollars ne sont que le prix d'entrée, et des opérations de dizaines de millions voire plus de 100 millions de dollars par jour sont insupportables !
Li Di, PDG de Xiaobing Company, a fait un calcul : « Si l'on considère le coût de ChatGPT, je brûlerai 300 millions de yuans chaque jour et plus de 100 milliards de yuans par an.
Récemment, Google parent John Hennessy, président de la société Alphabet, s'est également dit préoccupé par les coûts : le coût d'une recherche basée sur de grands modèles linguistiques pourrait être 10 fois supérieur à celui des recherches par mots clés standard. La technologie entraînera des milliards de dollars de coûts supplémentaires et devrait avoir un impact considérable. impact sur Alphabet Group. La rentabilité aura un impact.
Le seuil est donc trop élevé pour construire un véritable "ChatGPT" (le "fossé" des grandes entreprises sera très profond), même pour des géants internationaux comme Google. Réfléchissez bien.
Deuxièmement, combien OpenAI peut-il gagner ? Les énormes investissements et dépenses peuvent-ils générer les revenus attendus
La perte nette a évidemment atteint 545 millions. ChatGPT sur l'âme, les gens ne doutent pas de sa capacité de monétisation. Il n'y a pas si longtemps, OpenAI a annoncé qu'il prévoyait un chiffre d'affaires de 200 millions de dollars cette année et de 1 milliard de dollars l'année prochaine
Actuellement, le modèle de profit d'OpenAI autour de ChatGPT est grossièrement divisé. en deux types :
1) Fournir une interface de données API, effectuer des tâches de traitement du langage naturel et facturer en fonction du nombre de caractères
2) ChatGPTPlus offre la priorité pour les périodes d'occupation du serveur, les réponses et autres privilèges, et facture un abonnement ; frais de service de 20 $ US/mois
De plus, si nous intégrons le nouveau Bing avec ChatGPT, cette recherche intelligente basée sur la conversation générera également beaucoup de revenus publicitaires
.
Cela dit, Altman, le leader d'OpenAI, ne semble pas avoir beaucoup d'idées sur la commercialisation. Il a déjà déclaré à propos de cette question : « Mais avec l'intégration profonde des entreprises ultérieures, la capacité de le faire. attirer de l'argent dépasse de loin le nôtre.
De retour en Chine, les entreprises peuvent être plus préoccupées par les scénarios commerciaux, par le choix de faire d'abord la face B ou la face C.
3. Se battant pour être le premier à se déployer, l'éléphant danse
À une époque où le trafic Internet est à son apogée, les géants s'affairent à percer. Dans le domaine de l'AIGC, il semble que les grandes entreprises technologiques aient vu une lueur d'espoir et aient commencé à se déployer activement, dans l'espoir de convertir efficacement cette tendance technologique émergente en avantages concurrentiels sur le marché.
Les départements R&D en IA tels que Baidu Feipiao, Tencent Youtu, Alibaba Damo Academy, Byte et NetEase ont lancé une nouvelle série de concurrence pour les produits de type ChatGPT.
En fait, la piste des grands modèles n'est pas nouvelle. De nombreuses entreprises nationales ont leurs propres avantages en matière d'accumulation et de terrain.
Mais actuellement, Baidu est le plus important dans un avenir proche.
Jeudi, le fondateur de Baidu, Robin Li, a souligné son enthousiasme et ses attentes pour le prochain « Wen Xin Yi Yan » lors de la conférence téléphonique sur les rapports financiers du quatrième trimestre et de l'année complète, et a même déclaré : « Nous pensons que cela va changer le cloud. Les règles du jeu informatique. "
À en juger par les plans annoncés lors de la réunion, "Wen Xinyiyan" est devenu la "position C" pour le prochain développement commercial - plusieurs activités grand public, telles que la recherche, le cloud intelligent, Apollo. la conduite autonome, les appareils intelligents Xiaodu, etc. y seront intégrés, parmi eux, Wen Xinyiyan fournira des services externes via Baidu Smart Cloud. Mars approche, et "Wen Xin Yi Yan", qui est en "période de sprint", est sur le point de sortir de son cocon.
Plus de 10 ans d'investissements R&D élevés, en attente d'un point de rupture. La recherche est orientée vers l'extrémité C, et le cloud intelligent est orienté vers l'extrémité B. Baidu, un éléphant qui a autrefois raté l'ère de l'Internet mobile, inaugure une nouvelle opportunité de « danse » complète.
4. Pourquoi de nouveaux termes persistent ?
Des concepts techniques émergent sans cesse, et de plus en plus de « mots à la mode » ne peuvent résister.
La dernière fois que les gens ont mentionné le métavers, ils se sont limités à l'imagination de "qu'est-ce que le métavers". Puis, alors que les gens considéraient à plusieurs reprises "l'ère VUCA", les voix ont progressivement disparu.
Si une éventuelle tendance technologique veut prendre pied dans la société, en dernière analyse, elle doit apporter une réelle valeur. La technologie AIGC représentée par ChatGPT doit également surmonter les problèmes liés à la « difficulté de mise en œuvre de l'IA » dans le passé, permettant à l'IA de réfléchir attentivement et d'innover en améliorant l'expérience utilisateur, en créant de nouvelles expériences utilisateur et en créant de la valeur sociale. Et ce point est aussi le plus essentiel.
La bonne nouvelle est que nous voyons sa valeur. Les tâches basées sur du texte telles que la rédaction d'e-mails, le brainstorming, la réécriture de code et la rédaction de résumés peuvent en effet faire gagner beaucoup de temps et d'argent aux praticiens. Je pense qu'à l'avenir, l'AIGC sera vu dans divers scénarios de contenu tels que la voix, les images et. vidéos. Pas une mauvaise performance.
Bien sûr, en plus des valeurs fondamentales, elle est aussi indissociable du terroir qui encourage l'innovation. Le ministère de la Science et de la Technologie a également répondu hier aux questions sur ChatGPT : « Notre pays a pris des mesures correspondantes en termes d'éthique pour toute nouvelle technologie, y compris la technologie de l'IA, afin de rechercher des avantages et d'éviter les inconvénients dans le développement de la science et de la technologie, afin que pour améliorer les « avantages ». Montrez-le."
Ensuite, la perspective revient aux développeurs, que devons-nous faire, nous, les techniciens ? Abandonner la mentalité impétueuse de suivre la tendance et avoir une solide compréhension des problèmes à résoudre est plus pragmatique que de simplement regarder l'excitation des « hausses et baisses des actions ». Par exemple, les développeurs OpenAI travaillent sur des moyens pratiques de réduire les coûts de formation des modèles.
Le 25, Wang Jian, académicien de l'Académie chinoise d'ingénierie et fondateur d'Alibaba Cloud, a déclaré lors de la Conférence mondiale des pionniers de l'intelligence artificielle 2023 : La puissance de calcul n'est plus un goulot d'étranglement ou une excuse pour les développeurs. Les développeurs doivent avoir une compréhension globale de l’ensemble du secteur et comprendre les capacités et les limites de l’algorithme.
Wang Jian a déclaré que les développeurs qui développent véritablement une intelligence artificielle de haut niveau suivent l'idée detrouver des problèmes et utiliser les technologies existantes pour les résoudre. La résolution des problèmes elle-même est en fait une percée.
« Il est important que vous fassiez la bonne chose au bon moment. »
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Le DALL-E 3 a été officiellement introduit en septembre 2023 en tant que modèle considérablement amélioré par rapport à son prédécesseur. Il est considéré comme l’un des meilleurs générateurs d’images IA à ce jour, capable de créer des images avec des détails complexes. Cependant, au lancement, c'était exclu

Ce site a rapporté le 27 juin que Jianying est un logiciel de montage vidéo développé par FaceMeng Technology, une filiale de ByteDance. Il s'appuie sur la plateforme Douyin et produit essentiellement du contenu vidéo court pour les utilisateurs de la plateforme. Il est compatible avec iOS, Android et. Windows, MacOS et autres systèmes d'exploitation. Jianying a officiellement annoncé la mise à niveau de son système d'adhésion et a lancé un nouveau SVIP, qui comprend une variété de technologies noires d'IA, telles que la traduction intelligente, la mise en évidence intelligente, l'emballage intelligent, la synthèse humaine numérique, etc. En termes de prix, les frais mensuels pour le clipping SVIP sont de 79 yuans, les frais annuels sont de 599 yuans (attention sur ce site : équivalent à 49,9 yuans par mois), l'abonnement mensuel continu est de 59 yuans par mois et l'abonnement annuel continu est de 59 yuans par mois. est de 499 yuans par an (équivalent à 41,6 yuans par mois) . En outre, le responsable de Cut a également déclaré que afin d'améliorer l'expérience utilisateur, ceux qui se sont abonnés au VIP d'origine

Améliorez la productivité, l’efficacité et la précision des développeurs en intégrant une génération et une mémoire sémantique améliorées par la récupération dans les assistants de codage IA. Traduit de EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG, auteur JanakiramMSV. Bien que les assistants de programmation d'IA de base soient naturellement utiles, ils ne parviennent souvent pas à fournir les suggestions de code les plus pertinentes et les plus correctes, car ils s'appuient sur une compréhension générale du langage logiciel et des modèles d'écriture de logiciels les plus courants. Le code généré par ces assistants de codage est adapté à la résolution des problèmes qu’ils sont chargés de résoudre, mais n’est souvent pas conforme aux normes, conventions et styles de codage des équipes individuelles. Cela aboutit souvent à des suggestions qui doivent être modifiées ou affinées pour que le code soit accepté dans l'application.

Les grands modèles linguistiques (LLM) sont formés sur d'énormes bases de données textuelles, où ils acquièrent de grandes quantités de connaissances du monde réel. Ces connaissances sont intégrées à leurs paramètres et peuvent ensuite être utilisées en cas de besoin. La connaissance de ces modèles est « réifiée » en fin de formation. À la fin de la pré-formation, le modèle arrête effectivement d’apprendre. Alignez ou affinez le modèle pour apprendre à exploiter ces connaissances et répondre plus naturellement aux questions des utilisateurs. Mais parfois, la connaissance du modèle ne suffit pas, et bien que le modèle puisse accéder à du contenu externe via RAG, il est considéré comme bénéfique de l'adapter à de nouveaux domaines grâce à un réglage fin. Ce réglage fin est effectué à l'aide de la contribution d'annotateurs humains ou d'autres créations LLM, où le modèle rencontre des connaissances supplémentaires du monde réel et les intègre.

L'ensemble de données ScienceAI Question Answering (QA) joue un rôle essentiel dans la promotion de la recherche sur le traitement du langage naturel (NLP). Des ensembles de données d'assurance qualité de haute qualité peuvent non seulement être utilisés pour affiner les modèles, mais également évaluer efficacement les capacités des grands modèles linguistiques (LLM), en particulier la capacité à comprendre et à raisonner sur les connaissances scientifiques. Bien qu’il existe actuellement de nombreux ensembles de données scientifiques d’assurance qualité couvrant la médecine, la chimie, la biologie et d’autres domaines, ces ensembles de données présentent encore certaines lacunes. Premièrement, le formulaire de données est relativement simple, et la plupart sont des questions à choix multiples. Elles sont faciles à évaluer, mais limitent la plage de sélection des réponses du modèle et ne peuvent pas tester pleinement la capacité du modèle à répondre aux questions scientifiques. En revanche, les questions et réponses ouvertes

Editeur | KX Dans le domaine de la recherche et du développement de médicaments, il est crucial de prédire avec précision et efficacité l'affinité de liaison des protéines et des ligands pour le criblage et l'optimisation des médicaments. Cependant, les études actuelles ne prennent pas en compte le rôle important des informations sur la surface moléculaire dans les interactions protéine-ligand. Sur cette base, des chercheurs de l'Université de Xiamen ont proposé un nouveau cadre d'extraction de caractéristiques multimodales (MFE), qui combine pour la première fois des informations sur la surface des protéines, la structure et la séquence 3D, et utilise un mécanisme d'attention croisée pour comparer différentes modalités. alignement. Les résultats expérimentaux démontrent que cette méthode atteint des performances de pointe dans la prédiction des affinités de liaison protéine-ligand. De plus, les études d’ablation démontrent l’efficacité et la nécessité des informations sur la surface des protéines et de l’alignement des caractéristiques multimodales dans ce cadre. Les recherches connexes commencent par "S

Selon les informations de ce site Web du 5 juillet, GlobalFoundries a publié un communiqué de presse le 1er juillet de cette année, annonçant l'acquisition de la technologie de nitrure de gallium (GaN) et du portefeuille de propriété intellectuelle de Tagore Technology, dans l'espoir d'élargir sa part de marché dans l'automobile et Internet. des objets et des domaines d'application des centres de données d'intelligence artificielle pour explorer une efficacité plus élevée et de meilleures performances. Alors que des technologies telles que l’intelligence artificielle générative (GenerativeAI) continuent de se développer dans le monde numérique, le nitrure de gallium (GaN) est devenu une solution clé pour une gestion durable et efficace de l’énergie, notamment dans les centres de données. Ce site Web citait l'annonce officielle selon laquelle, lors de cette acquisition, l'équipe d'ingénierie de Tagore Technology rejoindrait GF pour développer davantage la technologie du nitrure de gallium. g

Selon les informations de ce site le 1er août, SK Hynix a publié un article de blog aujourd'hui (1er août), annonçant sa participation au Global Semiconductor Memory Summit FMS2024 qui se tiendra à Santa Clara, Californie, États-Unis, du 6 au 8 août, présentant de nombreuses nouvelles technologies de produit. Introduction au Future Memory and Storage Summit (FutureMemoryandStorage), anciennement Flash Memory Summit (FlashMemorySummit) principalement destiné aux fournisseurs de NAND, dans le contexte de l'attention croissante portée à la technologie de l'intelligence artificielle, cette année a été rebaptisée Future Memory and Storage Summit (FutureMemoryandStorage) pour invitez les fournisseurs de DRAM et de stockage et bien d’autres joueurs. Nouveau produit SK hynix lancé l'année dernière
