


Reddit va payer des entreprises comme OpenAI pour éviter une utilisation inappropriée des chats des utilisateurs
Selon l'actualité du 19 avril, Microsoft, Google et OpenAI utilisent les données de discussion des utilisateurs sur les forums Reddit pour développer de nouveaux systèmes d'intelligence artificielle. Désormais, Reddit prévoit de facturer des redevances à ces sociétés.
Reddit a toujours été une plateforme de discussion sur des sujets d'actualité sur Internet, avec environ 57 millions de personnes visitant le site chaque jour pour discuter de divers sujets, notamment des conseils de maquillage, des jeux vidéo et des lave-autos automatiques.
Ces dernières années, les discussions sur les forums Reddit sont devenues des outils de formation gratuits permettant à des entreprises telles que Google, OpenAI et Microsoft de développer des systèmes d'intelligence artificielle. Aujourd’hui, de nombreux acteurs de l’industrie pensent que ces systèmes d’intelligence artificielle seront la prochaine grande nouveauté de l’industrie technologique.
Reddit prévoit donc de facturer les entreprises qui développent des technologies d'intelligence artificielle. De nombreuses entreprises téléchargent et traitent les discussions du forum via des interfaces de programmation d'applications (API). Mardi, Reddit a annoncé son intention de commencer à facturer aux entreprises l'utilisation de son API.
Le fondateur et PDG de Reddit, Steve Huffman, a déclaré dans une interview : "La base de données de Reddit est en effet précieuse, et nous n'avons pas besoin de fournir cette valeur gratuitement aux plus grandes entreprises du monde.
La décision de Reddit est la première fois." Le réseau social a explicitement facturé OpenAI et d’autres pour le libre accès afin de développer des systèmes d’intelligence artificielle comme ChatGPT. Les nouveaux systèmes d’IA comme ChatGPT pourraient un jour devenir une grosse affaire, mais ils ne feront pas grand-chose pour aider des entreprises comme Reddit. Au contraire, ces systèmes d’intelligence artificielle peuvent également générer automatiquement du contenu de chat et devenir des concurrents de Reddit.
Reddit se prépare à une éventuelle cotation cette année. La société a été fondée en 2005 et s'appuie actuellement principalement sur la publicité sur les plateformes et les transactions de commerce électronique pour réaliser des bénéfices. Reddit a déclaré qu'il finalisait les détails de facturation de l'interface API et qu'il annoncerait le prix dans les prochaines semaines.
De nos jours, les modèles linguistiques à grande échelle sont devenus un élément important du développement de nouvelles technologies d'intelligence artificielle, et le contenu des discussions des utilisateurs sur les forums Reddit est également devenu un bien précieux.
L'un des algorithmes sous-jacents du chatbot d'intelligence artificielle de Google, Bard, a été formé à l'aide des données de chat Reddit. Dans le même temps, ChatGPT d’OpenAI utilise également les données Reddit comme l’une des informations nécessaires à la formation de grands modèles de langage.
De plus, d'autres entreprises commencent à prendre conscience de la valeur du contenu de chat et des images stockées sur la plateforme. Le service d'hébergement d'images Shutterstock a vendu des données d'images à OpenAI, qui a contribué au développement de DALL-E, un système d'intelligence artificielle capable de générer des images basées sur de simples invites textuelles.
Actuellement, des milliers d'entreprises et de développeurs, petits et grands, utilisent des API pour suivre des millions de discussions sur la plateforme Twitter. Le mois dernier, Elon Musk, propriétaire de la plateforme de médias sociaux personnelle Twitter, a déclaré qu'il modifiait la manière actuelle d'utiliser l'API de Twitter, facturant des frais allant de dizaines à des centaines de milliers pour utiliser l'API. Mais Musk n’a pas mentionné les grands modèles linguistiques comme raison de ce changement.
Afin d'améliorer continuellement leurs modèles, les entreprises d'intelligence artificielle ont besoin de deux facteurs importants : une puissance de calcul puissante et une grande quantité de données disponibles. Certaines grandes sociétés de développement d’intelligence artificielle disposent généralement d’une puissance de calcul suffisante, mais recherchent néanmoins les données dont elles ont besoin pour améliorer leurs algorithmes sur Internet. Il s'agit notamment de ressources telles que Wikipédia, divers livres numérisés, des articles universitaires et des discussions sur les forums Reddit.
Des entreprises telles que Google, OpenAI et Microsoft n’ont pas encore répondu au projet de facturation de Reddit.
Reddit entretient depuis longtemps une relation de co-dépendance avec les moteurs de recherche comme Google et Bing. Ils obtiennent automatiquement les informations de la page Reddit, les indexent, puis affichent les informations pertinentes dans les pages de résultats de recherche. Bien que cette méthode d’exploration automatique ne soit pas populaire auprès de tous les sites Web, Reddit peut figurer en bonne place dans les résultats de recherche.
Les modèles linguistiques à grande échelle sont complètement différents. Ils doivent obtenir autant de données que possible pour pouvoir créer de nouveaux systèmes d'intelligence artificielle.
Reddit estime que les données de son forum sont particulièrement précieuses car elles sont constamment mises à jour. Ce type de fraîcheur et de pertinence est exactement ce dont les grands algorithmes de modèles de langage ont besoin pour produire les meilleurs résultats, a déclaré Huffman.
« Reddit est un meilleur endroit pour discuter que n'importe où ailleurs sur Internet », déclare Huffman. "Il y a beaucoup de choses sur le site que vous ne diriez qu'en privé, ou ne diriez pas du tout."
Hoffman a également souligné que pour les développeurs d'applications qui souhaitent créer des applications aidant les gens à utiliser Reddit, l'API est toujours gratuite. Par exemple, les développeurs peuvent utiliser gratuitement des outils tels que les API pour développer des robots qui vérifient automatiquement si les commentaires des utilisateurs sont conformes aux règles de publication de contenu. Les personnes qui étudient les données Reddit à des fins de recherche universitaire ou à des fins non commerciales continueront également à avoir un accès gratuit aux données.
Reddit espère également intégrer davantage d'apprentissage automatique dans les opérations du forum. Par exemple, Reddit peut utiliser l'apprentissage automatique pour identifier l'utilisation de texte généré par l'intelligence artificielle sur la plateforme et ajouter des étiquettes pour informer les utilisateurs quels commentaires proviennent de robots. Reddit a également promis d'améliorer les outils logiciels destinés aux modérateurs de forums afin de les aider à surveiller les robots tiers sur leurs forums.
Mais pour les créateurs d’IA, Reddit pense qu’il est temps de payer.
"C'est notre propre problème de créer de la valeur en supprimant les données de Reddit sans rembourser nos utilisateurs", a déclaré Huffman. "C'est le bon moment pour nous de renforcer la gestion." (Chenchen)
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Lors de la conversion des chaînes en objets dans vue.js, JSON.Parse () est préféré pour les chaînes JSON standard. Pour les chaînes JSON non standard, la chaîne peut être traitée en utilisant des expressions régulières et réduisez les méthodes en fonction du format ou du codé décodé par URL. Sélectionnez la méthode appropriée en fonction du format de chaîne et faites attention aux problèmes de sécurité et d'encodage pour éviter les bogues.

Ingénieur backend à distance Emploi Vacant Société: Emplacement du cercle: Bureau à distance Type d'emploi: Salaire à temps plein: 130 000 $ - 140 000 $ Description du poste Participez à la recherche et au développement des applications mobiles Circle et des fonctionnalités publiques liées à l'API couvrant l'intégralité du cycle de vie de développement logiciel. Les principales responsabilités complètent indépendamment les travaux de développement basés sur RubyOnRails et collaborent avec l'équipe frontale React / Redux / Relay. Créez les fonctionnalités de base et les améliorations des applications Web et travaillez en étroite collaboration avec les concepteurs et le leadership tout au long du processus de conception fonctionnelle. Promouvoir les processus de développement positifs et hiérarchiser la vitesse d'itération. Nécessite plus de 6 ans de backend d'applications Web complexe

L'optimisation des performances MySQL doit commencer à partir de trois aspects: configuration d'installation, indexation et optimisation des requêtes, surveillance et réglage. 1. Après l'installation, vous devez ajuster le fichier my.cnf en fonction de la configuration du serveur, tel que le paramètre innodb_buffer_pool_size, et fermer query_cache_size; 2. Créez un index approprié pour éviter les index excessifs et optimiser les instructions de requête, telles que l'utilisation de la commande Explication pour analyser le plan d'exécution; 3. Utilisez le propre outil de surveillance de MySQL (ShowProcessList, Showstatus) pour surveiller la santé de la base de données, et sauvegarde régulièrement et organisez la base de données. Ce n'est qu'en optimisant en continu ces étapes que les performances de la base de données MySQL peuvent être améliorées.

Il existe de nombreuses raisons pour lesquelles la startup MySQL échoue, et elle peut être diagnostiquée en vérifiant le journal des erreurs. Les causes courantes incluent les conflits de port (vérifier l'occupation du port et la configuration de modification), les problèmes d'autorisation (vérifier le service exécutant les autorisations des utilisateurs), les erreurs de fichier de configuration (vérifier les paramètres des paramètres), la corruption du répertoire de données (restaurer les données ou reconstruire l'espace de la table), les problèmes d'espace de la table InNODB (vérifier les fichiers IBDATA1), la défaillance du chargement du plug-in (vérification du journal des erreurs). Lors de la résolution de problèmes, vous devez les analyser en fonction du journal d'erreur, trouver la cause profonde du problème et développer l'habitude de sauvegarder régulièrement les données pour prévenir et résoudre des problèmes.

L'article présente le fonctionnement de la base de données MySQL. Tout d'abord, vous devez installer un client MySQL, tel que MySQLWorkBench ou le client de ligne de commande. 1. Utilisez la commande MySQL-UROot-P pour vous connecter au serveur et connecter avec le mot de passe du compte racine; 2. Utilisez Createdatabase pour créer une base de données et utilisez Sélectionner une base de données; 3. Utilisez CreateTable pour créer une table, définissez des champs et des types de données; 4. Utilisez InsertInto pour insérer des données, remettre en question les données, mettre à jour les données par mise à jour et supprimer les données par Supprimer. Ce n'est qu'en maîtrisant ces étapes, en apprenant à faire face à des problèmes courants et à l'optimisation des performances de la base de données que vous pouvez utiliser efficacement MySQL.

Traiter efficacement 7 millions d'enregistrements et créer des cartes interactives avec la technologie géospatiale. Cet article explore comment traiter efficacement plus de 7 millions d'enregistrements en utilisant Laravel et MySQL et les convertir en visualisations de cartes interactives. Exigences initiales du projet de défi: extraire des informations précieuses en utilisant 7 millions d'enregistrements dans la base de données MySQL. Beaucoup de gens considèrent d'abord les langages de programmation, mais ignorent la base de données elle-même: peut-il répondre aux besoins? La migration des données ou l'ajustement structurel est-il requis? MySQL peut-il résister à une charge de données aussi importante? Analyse préliminaire: les filtres et les propriétés clés doivent être identifiés. Après analyse, il a été constaté que seuls quelques attributs étaient liés à la solution. Nous avons vérifié la faisabilité du filtre et établi certaines restrictions pour optimiser la recherche. Recherche de cartes basée sur la ville

La clé primaire MySQL ne peut pas être vide car la clé principale est un attribut de clé qui identifie de manière unique chaque ligne dans la base de données. Si la clé primaire peut être vide, l'enregistrement ne peut pas être identifié de manière unique, ce qui entraînera une confusion des données. Lorsque vous utilisez des colonnes entières ou des UUIdes auto-incrémentales comme clés principales, vous devez considérer des facteurs tels que l'efficacité et l'occupation de l'espace et choisir une solution appropriée.

Résumé: Il existe les méthodes suivantes pour convertir les tableaux de chaîne Vue.js en tableaux d'objets: Méthode de base: utilisez la fonction de carte pour convenir à des données formatées régulières. Gameplay avancé: l'utilisation d'expressions régulières peut gérer des formats complexes, mais ils doivent être soigneusement écrits et considérés. Optimisation des performances: Considérant la grande quantité de données, des opérations asynchrones ou des bibliothèques efficaces de traitement des données peuvent être utilisées. MEILLEUR PRATIQUE: Effacer le style de code, utilisez des noms de variables significatifs et des commentaires pour garder le code concis.
