


D'OpenAI à Anthropic, est-ce le destin de tous les laboratoires d'IA d'être investis ou acquis ?
Selon certaines informations, Google investirait 300 millions de dollars dans Anthropic. Bien que les détails sur l'accord entre Google et Anthropic soient rares, il présente de nombreuses similitudes avec l'investissement de Microsoft dans OpenAI, qui a récemment reçu un investissement pluriannuel de plusieurs milliards de dollars.
Alors que la course aux entreprises technologiques pour concourir pour la prochaine domination informatique continue de s'intensifier, il sera difficile pour les laboratoires de recherche en intelligence artificielle comme Anthropic d'éviter de se laisser entraîner dans la concurrence sur le marché entre les géants de la technologie. Le nœud du problème est le suivant : comment les laboratoires de recherche en IA parviennent-ils à trouver l’équilibre délicat entre la poursuite du progrès scientifique et la création de technologies commercialisées ?
Anthropic "né d'OpenAI"
Anthropic a été fondée en 2021 par Dario Amodei, ancien vice-président de la recherche chez OpenAI. L'entreprise ne rend pas publics ses travaux au-delà de la publication d'articles de recherche, mais elle a très bien réussi à lever des fonds pour ses recherches. La société a levé 124 millions de dollars en financement de série A lors de sa création et a reçu 580 millions de dollars supplémentaires en financement de série B l'année dernière. Aujourd'hui, Google a investi 300 millions de dollars supplémentaires.
Anthropic décrit l'entreprise sur son site Web comme une société de sécurité et de recherche en IA dédiée à la construction de systèmes d'IA fiables, explicables et contrôlables. L’entreprise tente de progresser sur le problème actuel de « l’imprévisibilité, du manque de fiabilité et de l’opacité des systèmes d’IA à usage général ».
Anthropic a publié plus d'une douzaine d'articles de recherche sur son site Web. Les sujets de ces articles incluent les grands modèles de langage (LLM), l'apprentissage par renforcement à partir de la rétroaction humaine (RLHF), les grands modèles génératifs, les modèles Transformer et l'interprétabilité. Son article le plus récent a été publié en décembre 2022.
Anthropic n'a pas l'intention de lancer des produits commerciaux d'IA et se concentre actuellement uniquement sur la recherche technique. Mais l'entreprise a déclaré : « À l'avenir, nos recherches auront de nombreuses opportunités de créer de la valeur pour des bénéfices commerciaux et publics. »
La « compatibilité naturelle » entre Google et Anthropic
Anthropic a choisi Google comme cloud préféré. fournisseurs informatiques pour former, faire évoluer et déployer leurs systèmes d'IA. Dario Amodei a déclaré : « L'investissement de Google Cloud soutiendra la prochaine phase de développement d'Anthropic, en déployant nos systèmes d'IA auprès d'une base d'utilisateurs plus large. »
La société développe un assistant d’IA appelé Claude, mais il n’a pas encore été rendu public (mais certains médias l’ont comparé au ChatGPT d’OpenAI). Claude utilise une technologie auto-développée appelée « IA constitutionnelle » qui peut fonctionner avec d'autres IA pour superviser le comportement des systèmes d'IA. Cette technologie vise à contrôler plus précisément le comportement de l’IA et à réduire l’intervention humaine.
Google compte déjà certains des scientifiques en IA les plus talentueux dans ses divisions Google Brain et DeepMind, alors pourquoi serait-il intéressé à travailler avec Anthropic ? Il peut y avoir trois raisons principales à cela, toutes parallèles à la collaboration entre Microsoft et OpenAI.
Tout d’abord, l’investissement de Microsoft dans OpenAI a démontré les avantages d’investir dans Anthropic plutôt que de l’acquérir. Bien que l’IA générative soit passionnante, il s’agit d’un domaine émergent. Les développeurs explorent encore ses défis éthiques, juridiques et techniques. Certains avocats tentent encore de comprendre comment des modèles tels que DALL-E et Codex affectent les lois sur la violation du droit d'auteur. Les développeurs de GPT-3 et ChatGPT créent continuellement de nouvelles mesures de sécurité pour empêcher les grands modèles de langage (LLM) de générer des discours de haine et d'autres contenus préjudiciables, tandis que les établissements d'enseignement s'inquiètent du fait que les étudiants utilisent des modèles génératifs pour tricher aux examens.
Pour les grandes entreprises technologiques comme Google et Microsoft, n'importe laquelle de ces préoccupations pourrait se transformer en un cauchemar de relations publiques et nuire à leur marque et à leur réputation, c'est pourquoi les startups comme OpenAI et Anthropic doivent laisser plus de place aux essais, aux erreurs et à l'apprentissage.
Deuxièmement, Anthropic est devenu un client de longue date de Google Cloud Platform. Google investit dans des crédits GCP plutôt que dans de l'argent liquide, ce qui fera probablement d'Anthropic un client Google à long terme.
Troisièmement, un partenariat avec Anthropic permettra à Google d'apprendre à améliorer son matériel d'IA pour exécuter des modèles à grande échelle. Google dispose déjà d'une équipe d'ingénierie matérielle expérimentée en IA et son processeur TPU est l'un des meilleurs moteurs d'inférence de son genre. Mais la participation de l’équipe Anthropic aux travaux de recherche « AI & Compute » d’OpenAI apportera certainement de nouvelles idées.
L'avenir de la recherche sur l'IA Anthropic
Une question qui préoccupe les acteurs de l'industrie est la suivante : "Où ira le partenariat entre Google et Anthropic ? Les experts de l'industrie pensent que Google deviendra le plus grand gagnant parce qu'il en remportera au moins un ?" client de grande valeur, et éviter que ce laboratoire de recherche prometteur sur l'IA ne soit englouti par le marché croissant de l'IA appliquée de Microsoft. Et dans le meilleur des cas, Google envisagerait d’acquérir Anthropic à l’avenir pour rivaliser avec d’autres géants de la technologie.
Alors Anthropic va-t-il souffrir ? L'entreprise a reçu le financement dont elle avait besoin pour poursuivre ses recherches, mais se retrouverait bloquée dans Google Cloud Platform car elle recevait des crédits GCP. Une fois que leur infrastructure d’IA évolutive aura atteint sa maturité, la transférer vers un autre fournisseur sera difficile et coûteuse.
Compte tenu de leur engagement à développer leur activité, même les 300 millions de dollars en espèces pourraient être épuisés au bout d'un an. Après cela, ils devront lever davantage d’argent pour couvrir leurs coûts d’exploitation sur Google Cloud. Avec un peu de chance, Google continuera à fournir davantage de crédits GCP. Sinon, Anthropic devra trouver un moyen de monétiser sa technologie, alors qui de mieux que Google
Il y a trop de similitudes avec la trajectoire de développement d'OpenAI depuis qu'elle a reçu un investissement en crédit Azure de Microsoft ? Si OpenAI continue de publier des résultats de recherche époustouflants, elle est également influencée par les intérêts commerciaux de ses principaux bailleurs de fonds. Il est en fait davantage axé sur la recherche cohérente avec la gamme de produits Microsoft et pouvant être monétisée plus rapidement (comme les modèles de langage, les générateurs d'images de conversion de texte, les générateurs de code source), plutôt que de se consacrer à des recherches qui ont des objectifs purement scientifiques et ne peuvent être réalisées. à court terme. Domaines de réalisation (manipulateurs, robots de jeux, algorithmes évolutifs, etc.).
Il a été rapporté qu'avant de créer Anthropic, Amodei et d'autres chercheurs ont quitté OpenAI en raison de désaccords sur l'orientation du développement de l'entreprise après avoir reçu un investissement d'un milliard de dollars de Microsoft. Ils craignaient qu'avec l'investissement de Microsoft, OpenAI ne se tourne vers une voie commerciale et finisse par s'écarter de son objectif de se concentrer sur la sécurité de l'IA.
Maintenant, Anthropic a fait le premier pas vers un chemin similaire. Le laboratoire de recherche en IA s’en tiendra-t-il à ses objectifs scientifiques tout en recevant des financements de grandes entreprises technologiques ? Ou finira-t-il par devenir une autre branche de facto de Google, créant une technologie pouvant être intégrée aux produits Google
Et où va l'avenir pour les laboratoires d'IA qui cherchent à ouvrir une voie différente dans le domaine de l'IA ?
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

La configuration du pare-feu d'un serveur de courrier Debian est une étape importante pour assurer la sécurité du serveur. Voici plusieurs méthodes de configuration de pare-feu couramment utilisées, y compris l'utilisation d'iptables et de pare-feu. Utilisez les iptables pour configurer le pare-feu pour installer iptables (sinon déjà installé): Sudoapt-getUpDaSuDoapt-getinstalliptableView Règles actuelles iptables: Sudoiptable-L Configuration

Les étapes pour installer un certificat SSL sur le serveur de messagerie Debian sont les suivantes: 1. Installez d'abord la boîte à outils OpenSSL, assurez-vous que la boîte à outils OpenSSL est déjà installée sur votre système. Si ce n'est pas installé, vous pouvez utiliser la commande suivante pour installer: Sudoapt-getUpDaSuDoapt-getInstallOpenSSL2. Générer la clé privée et la demande de certificat Suivant, utilisez OpenSSL pour générer une clé privée RSA 2048 bits et une demande de certificat (RSE): OpenSS

La commande de fermeture CENTOS est arrêtée et la syntaxe est la fermeture de [options] le temps [informations]. Les options incluent: -H Arrêtez immédiatement le système; -P éteignez l'alimentation après l'arrêt; -r redémarrer; -t temps d'attente. Les temps peuvent être spécifiés comme immédiats (maintenant), minutes (minutes) ou une heure spécifique (HH: mm). Des informations supplémentaires peuvent être affichées dans les messages système.

Mark Cerny, architecte en chef de SonyInterActiveTeretment (SIE, Sony Interactive Entertainment), a publié plus de détails matériels de l'hôte de nouvelle génération PlayStation5Pro (PS5PRO), y compris un GPU AMDRDNA2.x architecture amélioré sur les performances, et un programme d'apprentissage de l'intelligence machine / artificielle "AmethylSt" avec AMD. L'amélioration des performances de PS5PRO est toujours sur trois piliers, y compris un GPU plus puissant, un traçage avancé des rayons et une fonction de super-résolution PSSR alimentée par AI. GPU adopte une architecture AMDRDNA2 personnalisée, que Sony a nommé RDNA2.x, et il a une architecture RDNA3.

La politique de sauvegarde et de récupération de GitLab dans le système CentOS afin d'assurer la sécurité et la récupérabilité des données, Gitlab on CentOS fournit une variété de méthodes de sauvegarde. Cet article introduira plusieurs méthodes de sauvegarde courantes, paramètres de configuration et processus de récupération en détail pour vous aider à établir une stratégie complète de sauvegarde et de récupération de GitLab. 1. MANUEL BACKUP Utilisez le Gitlab-RakegitLab: Backup: Créer la commande pour exécuter la sauvegarde manuelle. Cette commande sauvegarde des informations clés telles que le référentiel Gitlab, la base de données, les utilisateurs, les groupes d'utilisateurs, les clés et les autorisations. Le fichier de sauvegarde par défaut est stocké dans le répertoire / var / opt / gitlab / backups. Vous pouvez modifier / etc / gitlab

Le réglage des performances de Zookeeper sur CentOS peut commencer à partir de plusieurs aspects, notamment la configuration du matériel, l'optimisation du système d'exploitation, le réglage des paramètres de configuration, la surveillance et la maintenance, etc. Assez de mémoire: allouez suffisamment de ressources de mémoire à Zookeeper pour éviter la lecture et l'écriture de disques fréquents. CPU multi-core: utilisez un processeur multi-core pour vous assurer que Zookeeper peut le traiter en parallèle.

Les améliorations de Microsoft aux fonctions de recherche Windows ont été testées sur certains canaux d'initiés Windows dans l'UE. Auparavant, la fonction de recherche Windows intégrée a été critiquée par les utilisateurs et avait une mauvaise expérience. Cette mise à jour divise la fonction de recherche en deux parties: recherche locale et recherche Web basée sur Bing pour améliorer l'expérience utilisateur. La nouvelle version de l'interface de recherche effectue la recherche de fichiers locale par défaut. Si vous devez rechercher en ligne, vous devez cliquer sur l'onglet "Microsoft Bingwebsearch" pour changer. Après le changement, la barre de recherche affichera "Microsoft BingWebsearch:", où les utilisateurs peuvent entrer des mots clés. Ce mouvement évite efficacement le mélange des résultats de recherche locaux avec les résultats de recherche Bing

Une formation efficace des modèles Pytorch sur les systèmes CentOS nécessite des étapes, et cet article fournira des guides détaillés. 1. Préparation de l'environnement: Installation de Python et de dépendance: le système CentOS préinstalle généralement Python, mais la version peut être plus ancienne. Il est recommandé d'utiliser YUM ou DNF pour installer Python 3 et Mettez PIP: sudoyuMupDatePython3 (ou sudodnfupdatepython3), pip3install-upradepip. CUDA et CUDNN (accélération GPU): Si vous utilisez Nvidiagpu, vous devez installer Cudatool
