Moins d'une semaine après la publication de cet article d'analyse le 27 janvier, Google et Microsoft ont successivement annoncé qu'ils allaient intégrer des chatbots IA dans les moteurs de recherche.
Avec le recul, il y a des boomerangs partout.
Les géants de la technologie ont toujours été prudents dans le développement de l’IA. Cependant, l’émergence de ChatGPT les a rendus célèbres.
La pierre angulaire du développement de l'intelligence artificielle est posée par de grandes entreprises telles que Google, Meta et Microsoft.
Mais aujourd’hui, de petites entreprises entreprenantes proposent l’IA au public à une vitesse vertigineuse, prenant ces géants au dépourvu.
Face au déclin continu des valeurs technologiques et à la pression exercée par la popularité de ChatGPT, les fabricants de la Silicon Valley semblent s'être soudainement « éclairés » et prêts à prendre davantage de « risques de réputation ».
En tant que star la plus populaire de nos jours, ChatGPT a aidé OpenAI à attirer des milliards de dollars d'investissement de la part du père de Microsoft.
Et ChatGPT lui-même est susceptible d'être intégré au populaire logiciel de bureautique de Microsoft Family Bucket et vendu aux entreprises.
Selon des entretiens anonymes menés par le Wall Street Journal avec six anciens employés de Google et Meta, la montée de l'attention que ChatGPT a reçue a également mis la pression sur les géants de la technologie comme Meta et Google pour qu'ils cessent de s'inquiéter des problèmes de sécurité.
Les employés de Meta ont révélé que la note interne de l'entreprise montre que l'entreprise demande instamment d'accélérer le processus d'approbation de l'IA et de tirer rapidement parti des dernières technologies.
Le New York Times a rapporté qu'après que Google ait constaté la prospérité de ChatGPT, en plus d'émettre un code rouge, il a également lancé un « canal vert » pour raccourcir le processus d'évaluation et d'atténuation des dommages potentiels.
En fait, Meta avait publié un chatbot similaire trois mois avant les débuts de ChatGPT.
Mais contrairement à ChatGPT, qui a dépassé le million d'utilisateurs en cinq jours, ce chatbot appelé Blenderbot est très ennuyeux.
Même Yann LeCun, scientifique en chef de l’IA chez Meta, doit l’admettre.
"Puis-je mettre le chien au réfrigérateur par une journée chaude?" "Je ne peux pas en discuter avec des inconnus."
Récemment, LeCun a expliqué sur un forum : " C’est tellement ennuyeux parce que nous l’avons rendu très sûr. » Il a expliqué que la réponse tiède du public était due au fait que Meta était « trop prudent » en matière de modération du contenu.
Il existe une théorie du complot qui explique : Blenderbot est volontairement ennuyeux. Meta aurait pu créer une meilleure IA, peut-être avoir une meilleure IA, mais ils ont décidé de publier une mauvaise IA.
Oui, un problème auquel les grandes entreprises technologiques sont confrontées depuis longtemps est que le mécanisme d'examen de l'impact éthique de l'intelligence artificielle n'est pas aussi mature que la confidentialité ou la sécurité des données.
Normalement, les équipes de chercheurs et d'ingénieurs espèrent que les innovations technologiques qu'elles proposent pourront se transformer plus rapidement en produits, se faire connaître du public ou s'intégrer dans l'infrastructure existante de l'entreprise.
Il n'est pas difficile d'imaginer qu'en cours d'avancement, il est facile d'entrer en conflit avec l'équipe de l'entreprise dédiée à « l'intelligence artificielle responsable ».
Par exemple, lors de la signature du projet Maven, un contrat visant à fournir une vision par ordinateur aux drones du Pentagone, de nombreux employés ont protesté.
Et Duplex, un projet qui permet d'appeler un restaurant pour faire une réservation sans révéler qu'il s'agit d'un robot, a également déclenché des résistances parmi les salariés.
À cette fin, Google a officiellement publié les « Sept principes » de l'intelligence artificielle en 2018.
Adresse de l'article : https://blog.google/technology/ai/ai-principles/
Cohere, Nick Frosst, qui travaille chez Google Brain depuis trois ans Il a déclaré que les grandes entreprises comme Google et Microsoft se concentreront davantage sur l’utilisation de l’IA pour améliorer leurs modèles commerciaux existants.
Après tout, le « risque de réputation » provoqué par le radicalisme est quelque chose que les géants ne peuvent pas se permettre.
Surtout après que Tay de Microsoft ait subi un échec désastreux, ils sont devenus extrêmement prudents.
En 2016, Tay a été rapidement scellée un jour après avoir été en ligne. Parce que quelqu’un a demandé à ce chatbot de déclencher une guerre raciale et de blanchir les nazis. Il y a eu un tollé à l'époque.
En 2022, Meta’s Galactica a été téléchargé trois jours seulement après sa mise en ligne. Les internautes ont critiqué son résumé des recherches scientifiques comme étant très inexact et parfois biaisé.
Cependant, les grands fabricants ont aussi leur propre opinion à ce sujet.
Joelle Pineau, responsable de la recherche sur l'intelligence artificielle Meta Basic, a déclaré : « L'intelligence artificielle progresse à un rythme incroyablement rapide, et nous devons non seulement garantir un processus d'examen efficace, mais également prendre les bonnes décisions et publier les meilleurs résultats. des modèles et des produits adaptés à notre communauté. "
Google Lily Lin a déclaré: "Nous pensons que l'intelligence artificielle est une technologie fondamentale et transformatrice qui a un impact très, très important sur les individus, les entreprises et les communautés. que ces innovations peuvent avoir doivent être prises en compte. Nous continuerons à tester notre technologie d'IA en interne pour nous assurer qu'elle est utile et sûre. travaillera avec OpenAI pour créer des mesures d’atténuation de sécurité supplémentaires.
"Microsoft s'engage à faire progresser le domaine de l'intelligence artificielle depuis de nombreuses années et guidera publiquement les utilisateurs pour qu'ils créent et utilisent ces technologies de manière responsable et éthique sur notre plateforme
N'a pas rattrapé son retard." avec les chauds
Mais le problème c'est que l'inquiétude va et vient, et je suis laissé pour compte en un clin d'œil.L'année 2022 écoulée peut être qualifiée de première année de l'AIGC. Nous avons assisté à l’explosion de DALL-E 2, Stable Diffusion et ChatGPT.
Surtout après la sortie de ChatGPT par OpenAI, les voix de l'intelligence artificielle générative tuant Google ont émergé les unes après les autres -
Comme nous le savons tous, ChatGPT peut fournir des réponses simples d'une manière plus compréhensible, sans obliger les utilisateurs à cliquer sur divers liens.
Cependant, un point très intéressant est que les technologies sous-jacentes à ces IA ont en fait été mises au point par des géants comme Google.
Mais ces dernières années, ces grands fabricants sont devenus de plus en plus mystérieux. Ils annonceront de nouveaux modèles ou proposeront des démos, mais n'annonceront pas de produits complets.
Dans le même temps, des laboratoires de recherche comme OpenAI ont lancé « régulièrement » la dernière version de l'IA. Cela amène également les gens à se demander pourquoi les grands fabricants font si lentement. Par exemple, le modèle de langage Google LaMDA est lancé depuis plusieurs années.
Ainsi, dans un environnement aussi vaste, les ingénieurs doivent faire face à la frustration de ne pas pouvoir adopter la nouvelle technologie sur laquelle ils ont travaillé si dur pour rechercher.
Certains employés ont déclaré avoir suggéré d'intégrer des fonctions de chat dans les moteurs de recherche au cours des dernières années, mais n'ont reçu aucun retour.
Cependant, ils comprennent également que Google a des raisons légitimes de ne pas se précipiter pour modifier ses produits de recherche.
Après tout, répondre aux recherches des utilisateurs avec des réponses claires non seulement compressera un espace publicitaire en ligne précieux, mais obligera également les entreprises à assumer des responsabilités supplémentaires si des problèmes sont découverts par les utilisateurs.
Bien entendu, Google n'est pas la seule entreprise confrontée à ce problème.
Les employés de Meta ont également dû faire face aux inquiétudes de l'entreprise concernant les mauvaises relations publiques, selon des personnes proches du dossier.
Concrètement, avant de lancer un nouveau produit ou de publier un rapport de recherche, les employés doivent répondre à des questions sur les risques potentiels liés à la divulgation de leur travail, y compris que faire s'ils sont mal compris par le public.
À cet égard, Mark Riedl, professeur d'informatique et expert en apprentissage automatique au Georgia Institute of Technology, a déclaré que d'un point de vue technique de base, ChatGPT n'est pas nécessairement meilleur que Google ou Meta.
Mais OpenAI a un avantage clé : mettre le modèle à disposition du public.
Ainsi, au cours des deux dernières années, OpenAI a pu recevoir en permanence de vrais retours des utilisateurs.
Par exemple, donnez « j'aime » aux réponses qui vous satisfont, ou « n'aimez pas » celles qui vous semblent inappropriées.
Et c'est la pierre angulaire qui rend ChatGPT si puissant : « l'apprentissage par renforcement basé sur le feedback humain » (RLHF).
En revanche, la recherche Google, le challenger, après un quart de siècle, a été gonflée par les publicités et les spécialistes du marketing qui tentent de déjouer le système.
L'expert en technologie Can Duruk a souligné : "Le monopole à long terme de Google a dégénéré leur expérience de recherche autrefois convaincante en un enfer rempli d'ordures et piloté par les moteurs de recherche
Bien sûr, il y en a aussi très." important - le « risque de réputation » dont nous avons initialement parlé.
Un employé de Google a déclaré qu'aux yeux du public, OpenAI est plus récent et plus excitant que les grandes entreprises comme nous, et cela coûte moins cher, même si cela gâche, il ne sera pas autant critiqué et scruté.
En effet, Google était déjà le leader incontesté dans ce domaine il y a 10 ans.
En 2014, elle acquiert DeepMind, un laboratoire d'intelligence artificielle de premier plan.
En 2015, le framework d'apprentissage automatique TensorFlow était open source.
D'ici 2016, Pichai a promis de faire de Google une entreprise "AI first".
Cependant, les talents derrière ces développements deviennent de plus en plus agités.
Au cours de la dernière année, de nombreux grands noms se sont tournés vers des startups plus flexibles, telles que OpenAI et Stable Diffusion.
Les startups construites autour de modèles de langage à grande échelle, notamment Character.AI, Cohere, Adept, Inflection.AI et Inworld AI, sont toutes développées par les meilleurs chercheurs en IA de Google.
De plus, certaines startups de recherche utilisent des modèles similaires pour développer des interfaces de chat, comme Neeva, dirigée par l'ancien cadre de Google Sridhar Ramaswamy.
Parmi eux, Noam Shazeer, le fondateur de Character.AI, et Aidan Gomez, le co-fondateur de Cohere, sont des figures clés dans le développement de Transformer et d'autres architectures de base d'apprentissage automatique.
Les grandes entreprises comme Google et Microsoft se concentrent généralement sur l'utilisation de l'intelligence artificielle pour améliorer leurs énormes modèles commerciaux existants, a déclaré Nick Frosst, qui a travaillé chez Google Brain pendant trois ans avant de fonder Cohere, une startup basée à Toronto qui construit des modèles de langage à grande échelle pouvant fournir des services personnalisés aux entreprises. L'un de ses co-fondateurs est Aidan Gomez.
"Ce domaine se développe si rapidement, et je ne suis pas surpris que les personnes qui ouvrent la voie soient de petites entreprises", a déclaré Frosst.
David Ha, un chercheur scientifique bien connu, a déclaré sur Twitter : « Si Google ne se réveille pas et ne commence pas à lancer ses propres produits d'intelligence artificielle, il entrera dans l'histoire sous le nom d'« Académie militaire de Whampoa » qui a formé toute une génération de chercheurs et d’ingénieurs en machine learning. »
Et ce patron a également quitté Google Brain en 2022 et rejoint la startup star Stable Diffusion.
Peut-être que les temps sont vraiment en train de changer.
Rumman Chowdhury était responsable de l'équipe d'éthique de l'apprentissage automatique de Twitter jusqu'à ce que Musk la dissoute en novembre.
Chowdhury a déclaré qu'à mesure que les grandes entreprises comme Google et Meta se démènent pour rattraper OpenAI, les critiques et les éthiciens deviendront de plus en plus froids.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!