Table des matières
Les effets de réseau fonctionnent différemment sur l'IA
OpenAI et Microsoft
Maison Périphériques technologiques IA Comment les effets de réseau peuvent rendre l'intelligence artificielle plus intelligente

Comment les effets de réseau peuvent rendre l'intelligence artificielle plus intelligente

May 06, 2023 pm 12:10 PM
人工智能


Comment les effets de réseau peuvent rendre lintelligence artificielle plus intelligente

Les effets de réseau déterminent le succès des technologies, des appels téléphoniques aux plateformes d'achat en ligne, et les outils d'IA comme ChatGPT ne font pas exception. La différence, cependant, réside dans la manière dont fonctionnent ces effets de réseau. Les effets de réseau de données sont une nouvelle forme, à l’instar des effets de réseau directs et indirects plus familiers, dans lesquels la valeur d’une technologie augmente à mesure que le nombre d’utilisateurs qu’elle acquiert augmente.

Cependant, la valeur dont nous discutons aujourd'hui n'est pas le nombre d'appels téléphoniques ou la présence de nombreux acheteurs et vendeurs sur une certaine plateforme de commerce électronique, mais plutôt le retour d'information qui vient de l'aider à faire de meilleures prédictions. Plus d’utilisateurs signifie plus de réponses, ce qui améliore encore la précision des prédictions, créant ainsi un cercle vertueux. Les entreprises doivent prendre en compte trois leçons : 1) Les commentaires sont essentiels, 2) Rassembler des informations régulièrement et méticuleusement, et 3) Tenir compte des données partagées intentionnellement ou non.

Lorsque OpenAI a lancé ChatGPT à la fin de l'année dernière, la réaction des observateurs du secteur a été un mélange d'éloges et d'inquiétude. Nous avons tous entendu dire à quel point la technologie met au chômage en masse les programmeurs informatiques, les enseignants, les traders et analystes financiers, les graphistes et les artistes. De nombreuses universités s’empressent de réviser les plans de cours et les exigences associées, craignant que l’IA n’étouffe les capacités créatives des étudiants. D'autres disent que l'impact le plus direct est peut-être que ChatGPT peut remodeler, voire remplacer les moteurs de recherche Internet traditionnels. La recherche et la publicité associée génèrent la grande majorité des revenus de Google. Les chatbots signifieront-ils donc la fin de Google ?

ChatGPT est une excellente vitrine de la technologie d'apprentissage automatique, mais est à peine viable en tant que service autonome. Afin de tirer parti de sa force technique, OpenAI a besoin d’un partenaire. Nous n'avons donc pas été surpris lorsque la société a rapidement annoncé un accord avec Microsoft. La combinaison d’une start-up d’IA et d’une entreprise technologique établie pourrait à terme constituer une menace crédible pour la domination de Google, augmentant ainsi les enjeux de la « course aux armements en matière d’IA ». Il fournit également une leçon sur les forces qui détermineront quelles entreprises prospéreront et lesquelles échoueront lors du déploiement de cette technologie.

Pour comprendre ce qui a poussé OpenAI à s'aligner sur Bing (et pourquoi Google pourrait encore gagner), nous avons examiné en quoi la technologie diffère des développements passés, tels que les appels téléphoniques ou les plateformes de marché comme Uber ou Airbnb. Dans ces exemples, les effets de réseau (où la valeur d'un produit augmente à mesure que le nombre d'utilisateurs augmente) jouent un rôle important dans la détermination de la croissance de ces produits et des entreprises qui réussissent. Les services d'IA générative comme ChatGPT sont soumis à des types d'effets de réseau similaires mais différents. Afin de choisir une stratégie adaptée à l’IA, les managers et les entrepreneurs doivent comprendre comment fonctionne ce nouvel effet de réseau de l’IA.

Les effets de réseau fonctionnent différemment sur l'IA

La valeur de l'intelligence artificielle réside dans des prédictions et des recommandations précises. Mais contrairement aux produits et services traditionnels qui reposent sur la conversion de fournitures (comme l'électricité ou le capital humain) en résultats (comme l'éclairage ou les conseils fiscaux), l'IA nécessite des ensembles de données massifs qui doivent être tenus à jour grâce à des interactions avec les clients. . Pour rester compétitifs, les opérateurs d’IA doivent collecter des données, les analyser, fournir des prédictions, puis solliciter des commentaires pour affiner les recommandations. La valeur du système dépend des données des utilisateurs et augmente avec les données.

Les performances de cette technologie – sa capacité à prédire avec précision et à formuler des recommandations – dépendent d’un principe économique appelé effets de réseau de données (certains préfèrent l’appeler apprentissage basé sur les données). Ceux-ci se distinguent des effets de réseau directs familiers, tels qu'un appel téléphonique qui devient plus précieux à mesure que votre base d'utilisateurs augmente, car vous pouvez appeler plus de personnes. Ils diffèrent également des effets de réseau indirects, qui décrivent comment davantage d’acheteurs invitent davantage de vendeurs à rejoindre la plateforme, et vice versa : lorsque davantage de vendeurs sont présents, faire des achats sur une plateforme de commerce électronique ou sur Airbnb en réservant une chambre devient plus attractif.

Les effets de réseau de données sont une nouvelle forme : comme l'effet plus familier, plus il y a d'utilisateurs, plus la technologie devient précieuse. Mais ici, la valeur ne vient pas du nombre de pairs, ni de la présence de nombreux acheteurs et vendeurs. Ces impacts proviennent plutôt de la nature de la technologie : l’IA s’améliore grâce à l’apprentissage par renforcement, à la prédiction et au feedback. À mesure que l’intelligence augmente, les systèmes peuvent faire de meilleures prédictions, améliorer leur utilité, attirer de nouveaux utilisateurs et fidéliser les utilisateurs existants. Plus d’utilisateurs signifie plus de réponses, ce qui améliore encore la précision des prédictions, créant ainsi un cercle vertueux.

Prenons l'exemple de Google Maps, qui utilise l'IA pour recommander l'itinéraire le plus rapide vers votre destination. Cette capacité dépend de la prévision des véritables modèles de trafic sur des chemins alternatifs, ce qui est obtenu en exploitant les données de nombreux utilisateurs. Ici, les utilisateurs de données sont également des fournisseurs, et plus les gens utilisent Google Maps, plus il accumule de données historiques et simultanées. Grâce à une multitude de données, Google peut comparer d'innombrables prédictions avec les résultats réels : êtes-vous arrivé à l'heure prévue par l'application ? Pour affiner les prédictions, l'application a également besoin de vos impressions : quelle était la qualité de la description ? À mesure que les faits objectifs et les commentaires subjectifs s’accumulent, les effets de réseau entrent en jeu. Ces effets améliorent les prédictions et augmentent la valeur de l'application pour les utilisateurs et pour Google.

Une fois que nous aurons compris comment les effets de réseau stimulent l’intelligence artificielle, nous pouvons imaginer les nouvelles stratégies que cette technologie nécessitera.

OpenAI et Microsoft

Commençons par le mariage entre OpenAI et Microsoft. Lorsque nous avons testé ChatGPT en version bêta, nous avons été impressionnés par ses réponses créatives et humaines, mais nous avons également réalisé qu'il avait ses goulots d'étranglement : il s'appuie sur des quantités massives de données collectées pour la dernière fois en 2021, alors ne posez pas de questions sur les événements récents ou même sur la météo. . Pire encore, il lui manque un mécanisme de boucle de rétroaction robuste.

Cependant, grâce à un lien avec Microsoft, OpenAI a trouvé un moyen de tester ses prédictions. Les questions des utilisateurs de Bing – et la manière dont ils évaluent les réponses – sont essentielles à la mise à jour et à l'amélioration de ChatGPT. Nous imaginons que la prochaine étape consiste pour Microsoft à introduire dans l’algorithme l’énorme nuage de données utilisateur qu’il gère. Bien que ChatGPT puisse digérer d'innombrables feuilles Excel, présentations PowerPoint, documents Word et CV LinkedIn, il fera un meilleur travail pour recréer ces fichiers pour le plus grand plaisir ou l'horreur des personnes au bureau.

Il y a ici au moins trois grandes leçons.

Tout d’abord, les commentaires sont cruciaux. La valeur de l’IA augmente avec la réponse continue des utilisateurs. Pour rester intelligent, l'algorithme a besoin d'un flux de données sur les sélections actuelles des utilisateurs et les évaluations de recommandations passées. Sans feedback, même les meilleurs algorithmes d’ingénierie ne resteront pas intelligents longtemps. Comme OpenAI le réalise, même les modèles les plus complexes doivent être liés à des sources de données en flux constant. Les entrepreneurs en IA devraient en être bien conscients.

Deuxièmement, les dirigeants devraient collecter des informations régulièrement et méticuleusement pour maximiser ces impacts. Ils devraient passer en revue les dossiers financiers et opérationnels typiques. Les données utiles sont partout, tant à l’intérieur qu’à l’extérieur de l’entreprise. Ils peuvent provenir d’interactions avec des acheteurs, des fournisseurs et des collègues. Par exemple, les détaillants peuvent suivre ce que voient les consommateurs, ce qu’ils mettent dans leur panier et ce qu’ils paient finalement. Cumulativement, ces petits détails peuvent améliorer considérablement les prédictions d’un système d’IA. Même les données rares, y compris celles sur lesquelles une entreprise n’a aucun contrôle, peuvent valoir la peine d’être collectées. Les données météorologiques aident Google Maps à prédire les conditions de circulation. Le suivi des mots-clés utilisés par les recruteurs pour rechercher des CV peut aider LinkedIn à fournir aux candidats des conseils pour réussir.

Enfin, chacun devrait considérer les données qu’il partage intentionnellement ou non. Les faits et les commentaires sont essentiels pour établir de meilleures prévisions, mais la valeur de vos données peut être capturée par d'autres, et les dirigeants doivent déterminer quelle IA peut bénéficier des données qu'ils partagent (ou auxquelles ils autorisent l'accès). Parfois, ils devraient limiter le partage. Par exemple, lorsque les chauffeurs Uber utilisent l'application Waze pour naviguer, ils aident Google à estimer la fréquence et la durée des trajets en covoiturage. Ces données pourraient être inestimables alors que Google envisage d’exploiter des taxis autonomes.

De plus, lorsqu'une marque comme Adidas vend des produits sur Amazon, le géant de la vente au détail peut estimer la demande pour différentes marques (comme par rapport à Nike) et catégories, ainsi que la sensibilité des acheteurs au prix. Les résultats pourraient profiter aux concurrents ou profiter aux produits de marque privée d'Amazon. Pour lutter contre cela, les dirigeants peuvent éviter les plateformes ou intermédiaires tiers. Ils peuvent négocier l’accès aux données et s’efforcer de maintenir un contact direct avec leurs clients. Parfois, la meilleure solution peut être de demander aux propriétaires de données de lier et de partager des données dans le cadre d’un échange de données, un peu comme les banques l’ont fait lorsqu’elles établissent des moyens de partager des données de crédit.

Lorsque l’on considère les effets de réseau de l’IA, nous pouvons mieux comprendre l’avenir de la technologie. Vous pouvez également voir comment ces effets, comme d’autres effets de réseau, rendent les riches encore plus riches. La dynamique derrière l’IA signifie que les premiers arrivants peuvent être largement récompensés, tandis que les adeptes, quelle que soit leur rapidité, peuvent être laissés pour compte. Cela signifie également que lorsque l’on a accès aux algorithmes d’IA et aux flux de données, les avantages s’accumulent au fil du temps et ne peuvent pas être facilement surpassés. Pour les dirigeants, les entrepreneurs, les décideurs politiques et tout le monde, le meilleur et le pire de l’intelligence artificielle sont encore à venir.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

AI Hentai Generator

AI Hentai Generator

Générez AI Hentai gratuitement.

Article chaud

R.E.P.O. Crystals d'énergie expliqués et ce qu'ils font (cristal jaune)
2 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
Repo: Comment relancer ses coéquipiers
4 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
Hello Kitty Island Adventure: Comment obtenir des graines géantes
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
Combien de temps faut-il pour battre Split Fiction?
3 Il y a quelques semaines By DDD

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Bytedance Cutting lance le super abonnement SVIP : 499 yuans pour un abonnement annuel continu, offrant une variété de fonctions d'IA Bytedance Cutting lance le super abonnement SVIP : 499 yuans pour un abonnement annuel continu, offrant une variété de fonctions d'IA Jun 28, 2024 am 03:51 AM

Ce site a rapporté le 27 juin que Jianying est un logiciel de montage vidéo développé par FaceMeng Technology, une filiale de ByteDance. Il s'appuie sur la plateforme Douyin et produit essentiellement du contenu vidéo court pour les utilisateurs de la plateforme. Il est compatible avec iOS, Android et. Windows, MacOS et autres systèmes d'exploitation. Jianying a officiellement annoncé la mise à niveau de son système d'adhésion et a lancé un nouveau SVIP, qui comprend une variété de technologies noires d'IA, telles que la traduction intelligente, la mise en évidence intelligente, l'emballage intelligent, la synthèse humaine numérique, etc. En termes de prix, les frais mensuels pour le clipping SVIP sont de 79 yuans, les frais annuels sont de 599 yuans (attention sur ce site : équivalent à 49,9 yuans par mois), l'abonnement mensuel continu est de 59 yuans par mois et l'abonnement annuel continu est de 59 yuans par mois. est de 499 yuans par an (équivalent à 41,6 yuans par mois) . En outre, le responsable de Cut a également déclaré que afin d'améliorer l'expérience utilisateur, ceux qui se sont abonnés au VIP d'origine

Assistant de codage d'IA augmenté par le contexte utilisant Rag et Sem-Rag Assistant de codage d'IA augmenté par le contexte utilisant Rag et Sem-Rag Jun 10, 2024 am 11:08 AM

Améliorez la productivité, l’efficacité et la précision des développeurs en intégrant une génération et une mémoire sémantique améliorées par la récupération dans les assistants de codage IA. Traduit de EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG, auteur JanakiramMSV. Bien que les assistants de programmation d'IA de base soient naturellement utiles, ils ne parviennent souvent pas à fournir les suggestions de code les plus pertinentes et les plus correctes, car ils s'appuient sur une compréhension générale du langage logiciel et des modèles d'écriture de logiciels les plus courants. Le code généré par ces assistants de codage est adapté à la résolution des problèmes qu’ils sont chargés de résoudre, mais n’est souvent pas conforme aux normes, conventions et styles de codage des équipes individuelles. Cela aboutit souvent à des suggestions qui doivent être modifiées ou affinées pour que le code soit accepté dans l'application.

Sept questions d'entretien technique Cool GenAI et LLM Sept questions d'entretien technique Cool GenAI et LLM Jun 07, 2024 am 10:06 AM

Pour en savoir plus sur l'AIGC, veuillez visiter : 51CTOAI.x Community https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou est différent de la banque de questions traditionnelle que l'on peut voir partout sur Internet. nécessite de sortir des sentiers battus. Les grands modèles linguistiques (LLM) sont de plus en plus importants dans les domaines de la science des données, de l'intelligence artificielle générative (GenAI) et de l'intelligence artificielle. Ces algorithmes complexes améliorent les compétences humaines et stimulent l’efficacité et l’innovation dans de nombreux secteurs, devenant ainsi la clé permettant aux entreprises de rester compétitives. LLM a un large éventail d'applications. Il peut être utilisé dans des domaines tels que le traitement du langage naturel, la génération de texte, la reconnaissance vocale et les systèmes de recommandation. En apprenant de grandes quantités de données, LLM est capable de générer du texte

Le réglage fin peut-il vraiment permettre au LLM d'apprendre de nouvelles choses : l'introduction de nouvelles connaissances peut amener le modèle à produire davantage d'hallucinations Le réglage fin peut-il vraiment permettre au LLM d'apprendre de nouvelles choses : l'introduction de nouvelles connaissances peut amener le modèle à produire davantage d'hallucinations Jun 11, 2024 pm 03:57 PM

Les grands modèles linguistiques (LLM) sont formés sur d'énormes bases de données textuelles, où ils acquièrent de grandes quantités de connaissances du monde réel. Ces connaissances sont intégrées à leurs paramètres et peuvent ensuite être utilisées en cas de besoin. La connaissance de ces modèles est « réifiée » en fin de formation. À la fin de la pré-formation, le modèle arrête effectivement d’apprendre. Alignez ou affinez le modèle pour apprendre à exploiter ces connaissances et répondre plus naturellement aux questions des utilisateurs. Mais parfois, la connaissance du modèle ne suffit pas, et bien que le modèle puisse accéder à du contenu externe via RAG, il est considéré comme bénéfique de l'adapter à de nouveaux domaines grâce à un réglage fin. Ce réglage fin est effectué à l'aide de la contribution d'annotateurs humains ou d'autres créations LLM, où le modèle rencontre des connaissances supplémentaires du monde réel et les intègre.

Afin de fournir un nouveau système de référence et d'évaluation de questions-réponses scientifiques et complexes pour les grands modèles, l'UNSW, Argonne, l'Université de Chicago et d'autres institutions ont lancé conjointement le cadre SciQAG. Afin de fournir un nouveau système de référence et d'évaluation de questions-réponses scientifiques et complexes pour les grands modèles, l'UNSW, Argonne, l'Université de Chicago et d'autres institutions ont lancé conjointement le cadre SciQAG. Jul 25, 2024 am 06:42 AM

L'ensemble de données ScienceAI Question Answering (QA) joue un rôle essentiel dans la promotion de la recherche sur le traitement du langage naturel (NLP). Des ensembles de données d'assurance qualité de haute qualité peuvent non seulement être utilisés pour affiner les modèles, mais également évaluer efficacement les capacités des grands modèles linguistiques (LLM), en particulier la capacité à comprendre et à raisonner sur les connaissances scientifiques. Bien qu’il existe actuellement de nombreux ensembles de données scientifiques d’assurance qualité couvrant la médecine, la chimie, la biologie et d’autres domaines, ces ensembles de données présentent encore certaines lacunes. Premièrement, le formulaire de données est relativement simple, et la plupart sont des questions à choix multiples. Elles sont faciles à évaluer, mais limitent la plage de sélection des réponses du modèle et ne peuvent pas tester pleinement la capacité du modèle à répondre aux questions scientifiques. En revanche, les questions et réponses ouvertes

Les performances de SOTA, la méthode d'IA de prédiction d'affinité protéine-ligand multimodale de Xiamen, combinent pour la première fois des informations sur la surface moléculaire Les performances de SOTA, la méthode d'IA de prédiction d'affinité protéine-ligand multimodale de Xiamen, combinent pour la première fois des informations sur la surface moléculaire Jul 17, 2024 pm 06:37 PM

Editeur | KX Dans le domaine de la recherche et du développement de médicaments, il est crucial de prédire avec précision et efficacité l'affinité de liaison des protéines et des ligands pour le criblage et l'optimisation des médicaments. Cependant, les études actuelles ne prennent pas en compte le rôle important des informations sur la surface moléculaire dans les interactions protéine-ligand. Sur cette base, des chercheurs de l'Université de Xiamen ont proposé un nouveau cadre d'extraction de caractéristiques multimodales (MFE), qui combine pour la première fois des informations sur la surface des protéines, la structure et la séquence 3D, et utilise un mécanisme d'attention croisée pour comparer différentes modalités. alignement. Les résultats expérimentaux démontrent que cette méthode atteint des performances de pointe dans la prédiction des affinités de liaison protéine-ligand. De plus, les études d’ablation démontrent l’efficacité et la nécessité des informations sur la surface des protéines et de l’alignement des caractéristiques multimodales dans ce cadre. Les recherches connexes commencent par "S

Cinq écoles d'apprentissage automatique que vous ne connaissez pas Cinq écoles d'apprentissage automatique que vous ne connaissez pas Jun 05, 2024 pm 08:51 PM

L'apprentissage automatique est une branche importante de l'intelligence artificielle qui donne aux ordinateurs la possibilité d'apprendre à partir de données et d'améliorer leurs capacités sans être explicitement programmés. L'apprentissage automatique a un large éventail d'applications dans divers domaines, de la reconnaissance d'images et du traitement du langage naturel aux systèmes de recommandation et à la détection des fraudes, et il change notre façon de vivre. Il existe de nombreuses méthodes et théories différentes dans le domaine de l'apprentissage automatique, parmi lesquelles les cinq méthodes les plus influentes sont appelées les « Cinq écoles d'apprentissage automatique ». Les cinq grandes écoles sont l’école symbolique, l’école connexionniste, l’école évolutionniste, l’école bayésienne et l’école analogique. 1. Le symbolisme, également connu sous le nom de symbolisme, met l'accent sur l'utilisation de symboles pour le raisonnement logique et l'expression des connaissances. Cette école de pensée estime que l'apprentissage est un processus de déduction inversée, à travers les connaissances existantes.

SK Hynix présentera de nouveaux produits liés à l'IA le 6 août : HBM3E à 12 couches, NAND à 321 hauteurs, etc. SK Hynix présentera de nouveaux produits liés à l'IA le 6 août : HBM3E à 12 couches, NAND à 321 hauteurs, etc. Aug 01, 2024 pm 09:40 PM

Selon les informations de ce site le 1er août, SK Hynix a publié un article de blog aujourd'hui (1er août), annonçant sa participation au Global Semiconductor Memory Summit FMS2024 qui se tiendra à Santa Clara, Californie, États-Unis, du 6 au 8 août, présentant de nombreuses nouvelles technologies de produit. Introduction au Future Memory and Storage Summit (FutureMemoryandStorage), anciennement Flash Memory Summit (FlashMemorySummit) principalement destiné aux fournisseurs de NAND, dans le contexte de l'attention croissante portée à la technologie de l'intelligence artificielle, cette année a été rebaptisée Future Memory and Storage Summit (FutureMemoryandStorage) pour invitez les fournisseurs de DRAM et de stockage et bien d’autres joueurs. Nouveau produit SK hynix lancé l'année dernière

See all articles