


OpenAI fait l'objet d'une blague : nous sommes ClosedAI, plus Open !
Auteur | Shadow
Le fondateur d'OpenAI s'est brouillé ? Est-ce que ça va être « fermé » ? Un lien qui ressemblait exactement au « site Web OpenAI » a été soudainement voté par de nombreuses personnes.
Ce lien simule le site officiel d'OpenAI, et utilise le nom d'un homme qui devrait surpasser le top Musk et un PDG populaire qui a goûté à l'espace de coopération commerciale illimitée de ChatGPT : Sam Altman, et a publié une lettre d'annonce : « OpenAI » devient « ClosedAI » !
Ce qui suit est le texte intégral de la pseudo-annonce (traduit) :
Chère communauté OpenAI,
Je voudrais profiter de cette occasion pour annoncer des changements importants dans notre organisation. Vous avez peut-être remarqué qu'OpenAI est désormais ClosedAI. Ce changement reflète notre nouvelle approche de la propriété intellectuelle.
Nous sommes désormais une entreprise à but lucratif, nous devons donc protéger nos investissements en R&D. Nous avons donc décidé de fermer nos brevets et nos recherches au public. Nous pensons que c’est le meilleur moyen de garantir la sécurité de nos emplois et de continuer à innover et à repousser les limites de l’intelligence artificielle.
Je sais que beaucoup d'entre vous pourraient être déçus par cette décision et je tiens à vous assurer que nous ne prenons pas cela à la légère. Nous comprenons que notre mission a toujours été de créer une IA sûre et bénéfique pour tous, et cette mission nous tient toujours à cœur. Cependant, nous pensons qu'en clôturant nos recherches, nous pourrons mieux atteindre nos objectifs.
En gardant nos recherches « fermées », nous pouvons garantir qu’elles sont uniquement utilisées pour améliorer l’humanité. Nous continuerons de travailler avec le gouvernement, le monde universitaire et d’autres organisations pour garantir que notre IA soit utilisée de manière éthique et responsable. Nous continuerons également à publier des articles et à partager nos découvertes avec des partenaires sélectionnés qui partagent notre vision de l'IA.
Je tiens à souligner que nos valeurs fondamentales n'ont pas changé. Nous restons déterminés à créer une intelligence artificielle qui profite à tous, et nous pensons que notre nouvelle approche nous aidera à atteindre cet objectif. Nous comprenons également que cette décision peut susciter des questions et des inquiétudes au sein de notre communauté. Nous ferons de notre mieux pour résoudre ces problèmes et vous tiendrons informés de nos progrès.
Merci pour votre soutien continu à ClosedAI. Nous sommes impatients de travailler avec vous pour créer un avenir meilleur.
1. La démarche est un peu "perdue", mais elle a du sens
Quand je lis cette phrase : "Je voudrais profiter de cela pour annoncer un changement majeur dans l'organisation : Vous avez peut-être remarqué qu'OpenAI est désormais ClosedAI ."
L'auteur a failli y croire Oui, car après avoir fait le point sur le passé d'OpenAI, couplé aux critiques verbales de Musk, force est de constater qu'OpenAI devient effectivement de plus en plus opaque !
ChatGPT : Il est très contraire à l'éthique et illégal de démarrer une entreprise à but lucratif sous le couvert d'une organisation à but non lucratif. Les organisations à but non lucratif dont les ressources sont utilisées à des fins caritatives ou publiques devraient fonctionner de manière transparente et responsable. Toute tentative d’abuser des privilèges d’une organisation à but non lucratif n’entraînera qu’une perte de confiance du public et pourra entraîner des conséquences juridiques.
La section commentaires du tweet de Musk était pleine de plaintes : « C'est exactement ce qu'ils ont fait à ChatGPT, n'est-ce pas ? » « Le monde fou des affaires est plein d'escrocs qui prétendent faire un travail honnête/caritatif, mais si c'est légal. contraire à l'éthique, alors cela ne devrait pas être autorisé ! "OpenAI est devenu ClosedAI"...
D'une organisation à but non lucratif à un profit limité en passant par l'utilisation d'API, il semble qu'OpenAI ait changé en ce moment !
À partir de cette fausse annonce, il n'est pas difficile de voir que la prévention des abus de modèles et la protection des droits de propriété intellectuelle tels que les brevets sont les raisons de ce changement.
Mais la vérité n’est peut-être pas si simple. Il y a au moins trois raisons :
(1) La première est le besoin d'argent. La société a déclaré dans son blog d'annonce d'API : « La commercialisation de la technologie nous aide à financer les efforts continus de recherche, de sécurité et de politique en matière d'intelligence artificielle.
(2) La deuxième raison est d'aider les géants à générer des revenus. OpenAI a déclaré qu '"il sera difficile pour quiconque, sauf pour les grandes entreprises, de bénéficier de la technologie sous-jacente".
(3) Enfin, l'entreprise affirme que la publication via API plutôt que via open source est plus sûre car l'entreprise peut faire face à des situations d'abus.
2. Le parcours de changement de mission d'OpenAI
Le ton et la mission d'OpenAI ont considérablement changé depuis sa création, alors qu'elle n'était qu'une organisation à but non lucratif. Comme Altman l'a publié vendredi dernier dans un article de blog intitulé "AGI and Beyond". Dans cet article, il a déclaré que l’intelligence artificielle générale (AGI) d’OpenAI bénéficierait à toute l’humanité. Il a utilisé un langage idéaliste pour affirmer que le développement de l’intelligence artificielle ne devrait jamais s’arrêter et que « l’avenir de l’humanité devrait être déterminé par l’humanité ».
Alors que l’entreprise se tourne vers l’avenir de l’existence d’AGI, elle a promis à l’époque : ne pas rechercher le profit, et même partager librement le code qu’elle développe.
3. Au début de sa création : une organisation à but non lucratif, au bénéfice de toute l'humanité
OpenAI a été fondée en 2015 en tant qu'organisation de recherche à but non lucratif, co-fondateurs de Sam Terman, Elon Musk, Peter Thiel et LinkedIn Co- fondée par Reid Hoffman et d'autres leaders technologiques.
Dans sa déclaration fondatrice, l'entreprise a déclaré son engagement en faveur de la recherche visant à faire progresser l'intelligence numérique « de la manière la plus susceptible de bénéficier à l'humanité », sans contrainte par la nécessité de générer des rendements financiers.
« Puisque notre recherche n'a aucune obligation financière, nous pouvons mieux nous concentrer sur l'impact positif sur l'humanité » et encourage tous les chercheurs à partager « des articles, des articles de blog ou du code et nos brevets (le cas échéant) seront partagés avec le reste des chercheurs ». monde « Partage du monde ».
1.2018 : Des changements subtils
Lorsque OpenAI a débuté, il était envisagé comme un moyen ouvert de mener des recherches fondamentales sur l'intelligence artificielle, et son objectif restait encore à déterminer. À l'époque, le co-fondateur Greg Bockman avait déclaré : « Notre objectif maintenant... est de faire la meilleure chose possible. C'est un peu nébuleux. Cela a conduit à un tournant en 2018, lorsque l'entreprise a cherché des ressources en capital pour poursuivre une certaine direction. » . Effectivement, l'entreprise a écrit dans sa charte mise à jour en 2018 : "Notre première responsabilité fiduciaire est envers l'humanité. Nous prévoyons de devoir lever des ressources importantes pour accomplir notre mission." a renforcé son statut d'organisation à but non lucratif et a créé un département « plafonnement des bénéfices ». La société peut désormais accepter des investissements et offrira aux investisseurs un plafond de bénéfices de 100 fois. La décision de l'entreprise était probablement motivée par son désir de rivaliser avec de grands concurrents technologiques comme Google, pour lequel elle a rapidement reçu un investissement d'un milliard de dollars de Microsoft. Dans un article de blog annonçant le lancement d'une entreprise à but lucratif, OpenAI a continué à utiliser le même langage que celui que nous voyons aujourd'hui, déclarant que sa mission est de « garantir que l'intelligence artificielle générale (AGI) profite à toute l'humanité ». À cette époque, les médias ont commencé à se demander : lorsque l'objectif principal des investisseurs en capital-risque est de réaliser des profits, il est difficile de croire qu'ils peuvent sauver l'humanité.
3.2023 : Black-box OpenAI
Aujourd'hui, huit ans plus tard, OpenAI semble avoir trouvé une voie de commercialisation adaptée. Mais le prix à payer est de se débarrasser des plumes « ouvertes » et d’exposer les utilisateurs et les développeurs à une entreprise opaque. Comme l’ont souligné de nombreux critiques, dont le co-fondateur Musk, l’OpenAI d’aujourd’hui est motivée par la rapidité et le profit.
De plus, l'ancienne atmosphère de travail axée sur la recherche n'existe plus, car à l'avenir, il est prévu d'ajouter certains éléments d'automatisation au détriment des employés et de réduire le coût d'application du modèle GPT. Même s’il reste encore de nombreux bugs à corriger dans la technologie lancée aujourd’hui, il est évident qu’OpenAI a hâte et veut commencer à engloutir cette vague du marché du Chat.
4. Écrit à la fin
Le célèbre poète Rabindranath Tagore a un poème : Lorsque les ailes d'un oiseau sont attachées avec de l'or, il ne peut plus voler librement.
Peut-être qu'aux yeux du public, depuis qu'OpenAI a choisi "l'or", il vaut mieux ne pas s'afficher avec le "vol libre".
La fausse « lettre ouverte » au début de l’article est une preuve éclatante que la réputation d’OpenAI a été endommagée.
Lien de référence :
https://www.php.cn/link/3187b1703c3b9b19bb63c027d8efc2f1
https://www.php.cn/link/098930a1f6c40597f933a2d 6 17f798ba
https://www.php.cn/link/b4189d9de0fb2b9cce090bd1a15e3420
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

OpenAI a récemment annoncé le lancement de son modèle d'intégration de dernière génération, embeddingv3, qui, selon eux, est le modèle d'intégration le plus performant avec des performances multilingues plus élevées. Ce lot de modèles est divisé en deux types : les plus petits text-embeddings-3-small et les plus puissants et plus grands text-embeddings-3-large. Peu d'informations sont divulguées sur la façon dont ces modèles sont conçus et formés, et les modèles ne sont accessibles que via des API payantes. Il existe donc de nombreux modèles d'intégration open source. Mais comment ces modèles open source se comparent-ils au modèle open source open source ? Cet article comparera empiriquement les performances de ces nouveaux modèles avec des modèles open source. Nous prévoyons de créer une donnée

En 2023, la technologie de l’IA est devenue un sujet brûlant et a un impact énorme sur diverses industries, notamment dans le domaine de la programmation. Les gens sont de plus en plus conscients de l’importance de la technologie de l’IA, et la communauté Spring ne fait pas exception. Avec l’évolution continue de la technologie GenAI (Intelligence Artificielle Générale), il est devenu crucial et urgent de simplifier la création d’applications dotées de fonctions d’IA. Dans ce contexte, « SpringAI » a émergé, visant à simplifier le processus de développement d'applications fonctionnelles d'IA, en le rendant simple et intuitif et en évitant une complexité inutile. Grâce à « SpringAI », les développeurs peuvent plus facilement créer des applications dotées de fonctions d'IA, ce qui les rend plus faciles à utiliser et à exploiter.

Si la réponse donnée par le modèle d’IA est incompréhensible du tout, oseriez-vous l’utiliser ? À mesure que les systèmes d’apprentissage automatique sont utilisés dans des domaines de plus en plus importants, il devient de plus en plus important de démontrer pourquoi nous pouvons faire confiance à leurs résultats, et quand ne pas leur faire confiance. Une façon possible de gagner confiance dans le résultat d'un système complexe est d'exiger que le système produise une interprétation de son résultat qui soit lisible par un humain ou un autre système de confiance, c'est-à-dire entièrement compréhensible au point que toute erreur possible puisse être trouvé. Par exemple, pour renforcer la confiance dans le système judiciaire, nous exigeons que les tribunaux fournissent des avis écrits clairs et lisibles qui expliquent et soutiennent leurs décisions. Pour les grands modèles de langage, nous pouvons également adopter une approche similaire. Cependant, lorsque vous adoptez cette approche, assurez-vous que le modèle de langage génère

Auteur丨Compilé par TimAnderson丨Produit par Noah|51CTO Technology Stack (WeChat ID : blog51cto) Le projet d'éditeur Zed est encore en phase de pré-version et a été open source sous licences AGPL, GPL et Apache. L'éditeur offre des performances élevées et plusieurs options assistées par l'IA, mais n'est actuellement disponible que sur la plate-forme Mac. Nathan Sobo a expliqué dans un article que dans la base de code du projet Zed sur GitHub, la partie éditeur est sous licence GPL, les composants côté serveur sont sous licence AGPL et la partie GPUI (GPU Accelerated User) l'interface) adopte la Licence Apache2.0. GPUI est un produit développé par l'équipe Zed

Il n'y a pas si longtemps, OpenAISora est rapidement devenu populaire grâce à ses étonnants effets de génération vidéo. Il s'est démarqué parmi la foule de modèles vidéo littéraires et est devenu le centre d'attention mondiale. Suite au lancement du processus de reproduction d'inférence de formation Sora avec une réduction des coûts de 46 % il y a 2 semaines, l'équipe Colossal-AI a entièrement open source le premier modèle de génération vidéo d'architecture de type Sora au monde "Open-Sora1.0", couvrant l'ensemble processus de formation, y compris le traitement des données, tous les détails de la formation et les poids des modèles, et joignez-vous aux passionnés mondiaux de l'IA pour promouvoir une nouvelle ère de création vidéo. Pour un aperçu, jetons un œil à une vidéo d'une ville animée générée par le modèle « Open-Sora1.0 » publié par l'équipe Colossal-AI. Ouvrir-Sora1.0

Ollama est un outil super pratique qui vous permet d'exécuter facilement des modèles open source tels que Llama2, Mistral et Gemma localement. Dans cet article, je vais vous présenter comment utiliser Ollama pour vectoriser du texte. Si vous n'avez pas installé Ollama localement, vous pouvez lire cet article. Dans cet article, nous utiliserons le modèle nomic-embed-text[2]. Il s'agit d'un encodeur de texte qui surpasse OpenAI text-embedding-ada-002 et text-embedding-3-small sur les tâches à contexte court et à contexte long. Démarrez le service nomic-embed-text lorsque vous avez installé avec succès o

Il a été révélé que Microsoft et OpenAI investissaient de grosses sommes d’argent dans une start-up de robots humanoïdes au début de l’année. Parmi eux, Microsoft prévoit d'investir 95 millions de dollars et OpenAI investira 5 millions de dollars. Selon Bloomberg, la société devrait lever un total de 500 millions de dollars au cours de ce cycle, et sa valorisation pré-monétaire pourrait atteindre 1,9 milliard de dollars. Qu'est-ce qui les attire ? Jetons d’abord un coup d’œil aux réalisations de cette entreprise en matière de robotique. Ce robot est tout argenté et noir, et son apparence ressemble à l'image d'un robot dans un blockbuster de science-fiction hollywoodien : maintenant, il met une capsule de café dans la machine à café : si elle n'est pas placée correctement, elle s'ajustera sans aucun problème. télécommande humaine : Cependant, après un certain temps, une tasse de café peut être emportée et dégustée : Avez-vous des membres de votre famille qui l'ont reconnu ? Oui, ce robot a été créé il y a quelque temps.

Soudain! OpenAI a licencié des gens, la raison : une fuite d'informations suspectée. L’un d’eux est Léopold Aschenbrenner, un allié du scientifique en chef disparu Ilya et un membre principal de l’équipe Superalignment. L'autre personne n'est pas simple non plus : il s'agit de Pavel Izmailov, chercheur au sein de l'équipe d'inférence du LLM, qui a également travaillé dans l'équipe de super alignement. On ne sait pas exactement quelles informations les deux hommes ont divulguées. Après que la nouvelle ait été révélée, de nombreux internautes se sont dits « assez choqués » : j'ai vu le message d'Aschenbrenner il n'y a pas longtemps et j'ai senti qu'il était en pleine ascension dans sa carrière. Certains internautes sur la photo pensent : OpenAI a perdu Aschenbrenner, je
