Maison Périphériques technologiques IA Li Feifei a personnellement écrit un article et des dizaines de scientifiques ont signé une lettre commune s'opposant au projet de loi californien sur la restriction de l'IA.

Li Feifei a personnellement écrit un article et des dizaines de scientifiques ont signé une lettre commune s'opposant au projet de loi californien sur la restriction de l'IA.

Aug 08, 2024 am 04:21 AM
产业 李飞飞

L’IA est-elle vraiment suffisamment dangereuse pour justifier une telle réglementation ?


Dans la Silicon Valley, haut lieu de l'innovation, des scientifiques en IA tels que Li Feifei et Andrew Ng sont engagés dans une lutte acharnée avec les autorités de régulation sur la sécurité et l'innovation.
Li Feifei a personnellement écrit un article et des dizaines de scientifiques ont signé une lettre commune sopposant au projet de loi californien sur la restriction de lIA.
Li Feifei a personnellement écrit un article et des dizaines de scientifiques ont signé une lettre commune sopposant au projet de loi californien sur la restriction de lIA.
Au centre de cette lutte acharnée se trouve un projet de loi appelé SB-1047. Le nom complet du projet de loi est « Safe and Secure Innovation for Frontier Artificial Intelligence Act », qui tente d'établir des normes de sécurité claires pour les modèles d'IA à haut risque afin d'éviter qu'ils ne soient abusés ou ne provoquent une catastrophe.

Le projet de loi a été présenté au Sénat en février de cette année et a ensuite suscité de nombreuses controverses. De nombreux scientifiques estiment que les dispositions du projet de loi sont trop déraisonnables et auront un impact dévastateur sur l'innovation scientifique et technologique.
Li Feifei a personnellement écrit un article et des dizaines de scientifiques ont signé une lettre commune sopposant au projet de loi californien sur la restriction de lIA.
Lien du projet de loi : https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=202320240SB1047

Plus précisément, ce projet de loi vise à réglementer l'intelligence artificielle à partir du niveau du modèle, pour les modèles formés au-dessus de certains seuils de calcul et de coût.

La couverture du modèle est la suivante :

1. Les modèles d'intelligence artificielle entraînés à l'aide de plus de 10 ^ 26 opérations de puissance de calcul entières ou à virgule flottante coûtent plus de cent millions de dollars américains (100 000 000 $). sont calculés sur la base d'une évaluation raisonnable par le développeur du prix moyen du marché du cloud computing au début de la formation.

2. Modèles d'intelligence artificielle créés en affinant les modèles dans le cadre en utilisant une puissance de calcul égale ou supérieure à trois fois 10 ^ 25 opérations entières ou à virgule flottante.

Cette gamme couvre essentiellement tous les grands modèles grand public présents sur le marché aujourd'hui. Si le projet de loi est adopté, ces modèles seront classés comme « potentiellement dangereux » ou nécessiteront une surveillance supplémentaire.

Le projet de loi exige également que les développeurs de modèles soient légalement responsables de l'utilisation ou de la modification en aval de leurs modèles. Avant que la formation puisse commencer, les développeurs doivent prouver que leurs modèles ne permettront pas ou ne fourniront pas de « fonctionnalités dangereuses » et mettre en œuvre une série de protections pour empêcher une telle utilisation. Cela entravera le développement de la communauté open source.

La supervision de la mise en œuvre de la nouvelle loi sera assurée par une « division modèle frontière », une agence de surveillance et de réglementation nouvellement créée. Déformer les capacités d’un modèle à l’agence, qui établira des normes de sécurité et donnera des conseils sur les lois sur l’IA, pourrait envoyer les développeurs en prison pour parjure.

Le projet de loi ajoute également des dispositions de protection des lanceurs d'alerte pour protéger et encourager les lanceurs d'alerte au sein des entités de développement de l'IA et garantir que les employés peuvent signaler la non-conformité de l'entreprise sans représailles.

Si le projet de loi est adopté, une seule signature du gouverneur Gavin Newsom deviendrait une loi californienne. Si ce projet de loi est adopté en Californie, il créera un précédent pour d'autres États et aura des effets d'entraînement aux États-Unis et à l'étranger, créant essentiellement un énorme effet papillon sur l'état de l'innovation, a déclaré Anjney Midha, associé général d'a16z.

Une audience sur le projet de loi aura lieu le matin du 7 août, PDT. Le temps presse pour que les scientifiques protestent. Par conséquent, Li Feifei a personnellement écrit un article exposant les avantages et les inconvénients du projet de loi. Certains scientifiques signent une lettre pour empêcher l’adoption du projet de loi.
Li Feifei a personnellement écrit un article et des dizaines de scientifiques ont signé une lettre commune sopposant au projet de loi californien sur la restriction de lIA.
                                                                                                                                                                                                              

Li Feifei a écrit un article critiquant le SB-1047

Li Feifei a déclaré dans l'article : « Le SB-1047 de Californie aura des conséquences importantes et inattendues. S'il est adopté, le SB-1047 sera adopté. "Nuira à l'écosystème naissant de l'IA. Le SB-1047 pénalisera inutilement les développeurs, étouffera la communauté open source et entravera la recherche universitaire sur l'IA tout en ne parvenant pas à résoudre les vrais problèmes pour lesquels il est conçu", a-t-elle écrit. -1047 punira indûment les développeurs et étouffera l'innovation.Le SB-1047 tient les parties responsables et les développeurs d'origine du modèle responsables si un modèle d'IA est utilisé à mauvais escient. Il est impossible pour tous les développeurs d’IA (en particulier les programmeurs et entrepreneurs en herbe) de prédire toutes les utilisations possibles de leurs modèles. Le SB-1047 obligera les développeurs à prendre du recul et à agir de manière défensive, exactement ce que nous essayons d'éviter.

Deuxièmement, le SB-1047 restreindra le développement open source. Le SB-1047 exige que tous les modèles dépassant un certain seuil incluent un « kill switch », un mécanisme qui peut arrêter le programme à tout moment. Si les développeurs craignent que les programmes qu’ils téléchargent et créent soient supprimés, ils hésiteront davantage à coder et à collaborer. Ce kill switch détruira la communauté open source, source d’innombrables innovations. L’impact ne se limite pas au domaine de l’intelligence artificielle, mais dans tous les domaines, du GPS à l’IRM en passant par Internet lui-même.

Troisièmement, le SB-1047 paralysera la recherche dans le secteur public et universitaire en IA. Le développement open source est important pour le secteur privé, mais il est également crucial pour le monde universitaire. Les universitaires ne peuvent pas progresser sans collaboration et sans accès aux données modèles. Comment formerons-nous la prochaine génération de leaders en IA si nos institutions n’ont pas accès aux modèles et aux données appropriés ? Un kill switch nuirait encore davantage aux efforts des étudiants et des chercheurs, qui sont déjà désavantagés en matière de données et d’informatique par rapport aux grandes entreprises technologiques. Le SB-1047 sonnera le glas de l’IA universitaire à un moment où nous devrions doubler les investissements du secteur public dans l’IA.

Plus inquiétant encore, le projet de loi ne s’attaque pas aux méfaits potentiels des progrès de l’intelligence artificielle, notamment les biais et les deepfakes. Au lieu de cela, le SB-1047 fixe un seuil arbitraire qui réglemente les modèles qui utilisent une certaine quantité de puissance de calcul ou qui coûtent 100 millions de dollars à former. Loin de fournir des garde-fous, cette mesure ne fera que limiter l’innovation dans tous les secteurs, y compris dans le monde universitaire. Aujourd’hui, les modèles d’IA universitaires tombent en dessous de ce seuil, mais si nous voulons rééquilibrer les investissements dans l’IA des secteurs privé et public, le monde universitaire sera réglementé par le SB-1047. En conséquence, notre écosystème d’IA s’en trouvera pire.

Les restrictions du SB-1047 sont trop arbitraires et nous devons faire le contraire.

Je ne suis pas contre la gouvernance de l'IA. La législation est essentielle au développement sûr et efficace de l’intelligence artificielle. Mais la politique en matière d’IA doit favoriser le développement open source, proposer des règles unifiées et raisonnables et renforcer la confiance des consommateurs. Le SB-1047 ne répond pas à ces normes.

Des dizaines de scientifiques ont signé une pétition pour s'opposer

En réponse au SB-1047, outre Li Feifei, un groupe composé d'enseignants et d'étudiants de 7 campus de l'Université de Californie et de chercheurs de plus de 20 autres institutions mènent également des actions actives. Ils ont co-écrit et signé une lettre ouverte s’opposant au SB-1047, soulignant les dommages causés par le projet de loi aux objectifs de recherche et d’éducation en IA de la Californie, du point de vue d’un chercheur.
Li Feifei a personnellement écrit un article et des dizaines de scientifiques ont signé une lettre commune sopposant au projet de loi californien sur la restriction de lIA.
La lettre commune discute du caractère déraisonnable du SB-1047 sous les aspects suivants :

1 Le projet de loi apportera un "effet dissuasif" à la publication de modèles open source, préjudiciable ainsi à la recherche

.
Le projet de loi exige des « audits de sécurité » et la possibilité de « fermer complètement » les « modèles de pointe », ce qui pourrait sérieusement entraver la sortie de modèles open source et open source. Ces réglementations strictes peuvent être plus faciles à mettre en œuvre pour un modèle propriétaire contrôlé par une entité privée, mais plus difficiles à mettre en œuvre pour un modèle ouvert utilisé par une organisation à but non lucratif ou un consortium d'universités. Les dispositions du projet de loi concernant les démonstrations et les audits de sécurité ne sont pas assez précises, s'appuyant sur des tests qui n'existent peut-être pas encore et peuvent manquer de rigueur scientifique. Le coût potentiel d'un tel audit peut être facilement abordable pour les entités commerciales proposant des produits rentables, mais pour les publications scientifiques ouvertes par des entités commerciales comme la série LLaMA de Meta, ou pour les modèles ouverts formés par des organisations à but non lucratif ou des consortiums universitaires, cela peut ne pas être le cas. .

En raison de ces lourdes restrictions, les développeurs de modèles open source peuvent choisir de construire des systèmes en dehors de la Californie ou des États-Unis et de publier leurs modèles sans responsabilité. Dans ce cas, des acteurs privés, sans aucun souci de conformité, peuvent utiliser secrètement ces modèles, tandis que des chercheurs universitaires contraints par la nature de leur travail public, ce qui les incite à changer de sujet de recherche ou à se tourner vers des domaines qui ne portent pas atteinte à leur liberté académique. , seront exclus. La disponibilité de modèles open source est essentielle à la recherche universitaire moderne sur l’IA, car ils permettent aux universitaires d’explorer le fonctionnement des modèles, les améliorations de capacités au cours de la formation et la manière dont ils peuvent être améliorés et piratés.

2. La prédiction des risques et l'évaluation des « capacités » de l'intelligence artificielle ne sont pas scientifiques

En tant qu'experts dans les domaines de l'intelligence artificielle, de l'apprentissage automatique et du traitement du langage naturel, ces chercheurs soulignent : mentionné dans SB-1047 Le projet proposé L’approche d’évaluation du risque du modèle est très discutable. Il n’existe pas de consensus scientifique sur la question de savoir si et comment les modèles linguistiques ou d’autres systèmes d’intelligence artificielle de pointe constituent une menace pour le public.

3. Protection insuffisante pour les modèles open source

Bien que le projet de loi mentionne que des cas particuliers pourront être prévus pour les modèles open source à l'avenir, en raison de la croissance rapide du nombre de paramètres et de la réduction de coûts de calcul, les mesures de protection existantes peuvent être difficiles à maintenir. Sans mesures de protection solides, les conséquences pour ces modèles pourraient rapidement devenir apparentes. De plus, les petits modèles aux performances comparables nécessitent des coûts de calcul plus élevés que les grands modèles. Par conséquent, les modifications apportées au projet de loi ne devraient pas atténuer l’impact négatif sur les versions de modèles open source, tandis que les exigences strictes en matière de reporting et d’examen auront un impact inutile sur les activités de recherche.

4. Les inquiétudes concernant le placement professionnel et les résultats de carrière des étudiants

SB-1047 peuvent empêcher les étudiants intéressés par l'intelligence artificielle d'approfondir leurs connaissances dans le domaine de l'informatique à l'avenir, et peuvent même empêcher de nouveaux talents d'entrer en informatique. et d'autres domaines clés. De plus, à mesure que l’industrie technologique passe des grandes entreprises aux startups, des obstacles réglementaires supplémentaires pourraient paralyser les innovateurs émergents en favorisant les entreprises plus grandes et meilleures. Ce changement pourrait restreindre les cheminements de carrière des étudiants.签 Signe signé par certains érudits.
Li Feifei a personnellement écrit un article et des dizaines de scientifiques ont signé une lettre commune sopposant au projet de loi californien sur la restriction de lIA.
En plus des lettres ouvertes, certains chercheurs choisissent également de s'exprimer sur les réseaux sociaux. Parmi eux, un biologiste des systèmes a noté que le SB-1047 équivaut à activer la réponse inflammatoire avant même que nous sachions quel est l’agent pathogène, quand il nous infectera et où l’infection se produira.

Avant cela, Ng Enda s'est également exprimé à plusieurs reprises sur cette question. Il estime que les régulateurs devraient réglementer les applications plutôt que la technologie. Par exemple, le moteur électrique est une technologie.Quand on le met dans un mixeur, une voiture électrique, un appareil de dialyse ou une bombe guidée, cela devient une application. Imaginez si la loi tenait les constructeurs automobiles responsables lorsque quelqu'un utilisait le moteur de manière nuisible. Ce fabricant de moteurs interrompt la production ou rend le moteur si petit qu'il est inutile pour la plupart des applications. Si nous adoptions des lois comme celle-ci, nous pourrions empêcher les gens de fabriquer des bombes, mais nous perdrions également des mixeurs, des voitures électriques et des appareils de dialyse. Au lieu de cela, si nous nous concentrons sur des applications spécifiques, nous pouvons évaluer les risques de manière plus rationnelle et juger comment assurer leur sécurité, voire interdire certains types d’applications.
Li Feifei a personnellement écrit un article et des dizaines de scientifiques ont signé une lettre commune sopposant au projet de loi californien sur la restriction de lIA.
L’IA est-elle vraiment suffisamment dangereuse pour justifier une telle réglementation ? Qu'en pensez-vous?

Lien de référence : https://a16z.com/sb-1047-what-you-need-to-know-with-anjney-midha/
https://drive. google.com/file/d/1E2yDGXryPhhlwS4OdkzMpNeaG5r6_Jxa/view
https://fortune.com/2024/08/06/godmother-of-ai-says-californias-ai-bill-will-harm-us -écosystème-tech-politique/?abc123

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

Video Face Swap

Video Face Swap

Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

<🎜>: Grow A Garden - Guide de mutation complet
3 Il y a quelques semaines By DDD
<🎜>: Bubble Gum Simulator Infinity - Comment obtenir et utiliser les clés royales
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
Nordhold: Système de fusion, expliqué
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
Mandragora: Whispers of the Witch Tree - Comment déverrouiller le grappin
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds

Tutoriel Java
1666
14
Tutoriel PHP
1273
29
Tutoriel C#
1253
24
Le robot DeepMind joue au tennis de table, et son coup droit et son revers glissent dans les airs, battant complètement les débutants humains Le robot DeepMind joue au tennis de table, et son coup droit et son revers glissent dans les airs, battant complètement les débutants humains Aug 09, 2024 pm 04:01 PM

Mais peut-être qu’il ne pourra pas vaincre le vieil homme dans le parc ? Les Jeux Olympiques de Paris battent leur plein et le tennis de table suscite beaucoup d'intérêt. Dans le même temps, les robots ont également réalisé de nouvelles avancées dans le domaine du tennis de table. DeepMind vient tout juste de proposer le premier agent robot apprenant capable d'atteindre le niveau des joueurs amateurs humains de tennis de table de compétition. Adresse papier : https://arxiv.org/pdf/2408.03906 Quelle est la capacité du robot DeepMind à jouer au tennis de table ? Probablement à égalité avec les joueurs amateurs humains : tant en coup droit qu'en revers : l'adversaire utilise une variété de styles de jeu, et le robot peut également résister : recevoir des services avec des tours différents : Cependant, l'intensité du jeu ne semble pas aussi intense que le vieil homme dans le parc. Pour les robots, le tennis de table

La première griffe mécanique ! Yuanluobao est apparu à la World Robot Conference 2024 et a lancé le premier robot d'échecs pouvant entrer dans la maison La première griffe mécanique ! Yuanluobao est apparu à la World Robot Conference 2024 et a lancé le premier robot d'échecs pouvant entrer dans la maison Aug 21, 2024 pm 07:33 PM

Le 21 août, la Conférence mondiale sur les robots 2024 s'est tenue en grande pompe à Pékin. La marque de robots domestiques de SenseTime, "Yuanluobot SenseRobot", a dévoilé toute sa famille de produits et a récemment lancé le robot de jeu d'échecs Yuanluobot AI - Chess Professional Edition (ci-après dénommé "Yuanluobot SenseRobot"), devenant ainsi le premier robot d'échecs au monde pour le maison. En tant que troisième produit robot jouant aux échecs de Yuanluobo, le nouveau robot Guoxiang a subi un grand nombre de mises à niveau techniques spéciales et d'innovations en matière d'IA et de machines d'ingénierie. Pour la première fois, il a réalisé la capacité de ramasser des pièces d'échecs en trois dimensions. grâce à des griffes mécaniques sur un robot domestique et effectuer des fonctions homme-machine telles que jouer aux échecs, tout le monde joue aux échecs, réviser la notation, etc.

Claude aussi est devenu paresseux ! Internaute : apprenez à vous accorder des vacances Claude aussi est devenu paresseux ! Internaute : apprenez à vous accorder des vacances Sep 02, 2024 pm 01:56 PM

La rentrée scolaire est sur le point de commencer, et ce ne sont pas seulement les étudiants qui sont sur le point de commencer le nouveau semestre qui doivent prendre soin d’eux-mêmes, mais aussi les grands modèles d’IA. Il y a quelque temps, Reddit était rempli d'internautes se plaignant de la paresse de Claude. « Son niveau a beaucoup baissé, il fait souvent des pauses et même la sortie devient très courte. Au cours de la première semaine de sortie, il pouvait traduire un document complet de 4 pages à la fois, mais maintenant il ne peut même plus produire une demi-page. !" https://www.reddit.com/r/ClaudeAI/comments/1by8rw8/something_just_feels_wrong_with_claude_in_the/ dans un post intitulé "Totalement déçu par Claude", plein de

Lors de la World Robot Conference, ce robot domestique porteur de « l'espoir des futurs soins aux personnes âgées » a été entouré Lors de la World Robot Conference, ce robot domestique porteur de « l'espoir des futurs soins aux personnes âgées » a été entouré Aug 22, 2024 pm 10:35 PM

Lors de la World Robot Conference qui se tient à Pékin, l'exposition de robots humanoïdes est devenue le centre absolu de la scène. Sur le stand Stardust Intelligent, l'assistant robot IA S1 a réalisé trois performances majeures de dulcimer, d'arts martiaux et de calligraphie. un espace d'exposition, capable à la fois d'arts littéraires et martiaux, a attiré un grand nombre de publics professionnels et de médias. Le jeu élégant sur les cordes élastiques permet au S1 de démontrer un fonctionnement fin et un contrôle absolu avec vitesse, force et précision. CCTV News a réalisé un reportage spécial sur l'apprentissage par imitation et le contrôle intelligent derrière "Calligraphy". Le fondateur de la société, Lai Jie, a expliqué que derrière les mouvements soyeux, le côté matériel recherche le meilleur contrôle de la force et les indicateurs corporels les plus humains (vitesse, charge). etc.), mais du côté de l'IA, les données réelles de mouvement des personnes sont collectées, permettant au robot de devenir plus fort lorsqu'il rencontre une situation forte et d'apprendre à évoluer rapidement. Et agile

Annonce des prix ACL 2024 : l'un des meilleurs articles sur le déchiffrement Oracle par HuaTech, GloVe Time Test Award Annonce des prix ACL 2024 : l'un des meilleurs articles sur le déchiffrement Oracle par HuaTech, GloVe Time Test Award Aug 15, 2024 pm 04:37 PM

Les contributeurs ont beaucoup gagné de cette conférence ACL. L'ACL2024, d'une durée de six jours, se tient à Bangkok, en Thaïlande. ACL est la plus grande conférence internationale dans le domaine de la linguistique informatique et du traitement du langage naturel. Elle est organisée par l'Association internationale pour la linguistique informatique et a lieu chaque année. L'ACL s'est toujours classée première en termes d'influence académique dans le domaine de la PNL, et c'est également une conférence recommandée par le CCF-A. La conférence ACL de cette année est la 62e et a reçu plus de 400 travaux de pointe dans le domaine de la PNL. Hier après-midi, la conférence a annoncé le meilleur article et d'autres récompenses. Cette fois, il y a 7 Best Paper Awards (deux inédits), 1 Best Theme Paper Award et 35 Outstanding Paper Awards. La conférence a également décerné 3 Resource Paper Awards (ResourceAward) et Social Impact Award (

L'équipe de Li Feifei a proposé ReKep pour donner aux robots une intelligence spatiale et intégrer GPT-4o L'équipe de Li Feifei a proposé ReKep pour donner aux robots une intelligence spatiale et intégrer GPT-4o Sep 03, 2024 pm 05:18 PM

Intégration profonde de la vision et de l'apprentissage des robots. Lorsque deux mains de robot travaillent ensemble en douceur pour plier des vêtements, verser du thé et emballer des chaussures, associées au robot humanoïde 1X NEO qui a fait la une des journaux récemment, vous pouvez avoir le sentiment : nous semblons entrer dans l'ère des robots. En fait, ces mouvements soyeux sont le produit d’une technologie robotique avancée + d’une conception de cadre exquise + de grands modèles multimodaux. Nous savons que les robots utiles nécessitent souvent des interactions complexes et exquises avec l’environnement, et que l’environnement peut être représenté comme des contraintes dans les domaines spatial et temporel. Par exemple, si vous souhaitez qu'un robot verse du thé, le robot doit d'abord saisir la poignée de la théière et la maintenir verticalement sans renverser le thé, puis la déplacer doucement jusqu'à ce que l'embouchure de la théière soit alignée avec l'embouchure de la tasse. , puis inclinez la théière selon un certain angle. ce

Conférence sur l'intelligence artificielle distribuée Appel à communications DAI 2024 : Agent Day, Richard Sutton, le père de l'apprentissage par renforcement, sera présent ! Yan Shuicheng, Sergey Levine et les scientifiques de DeepMind prononceront des discours d'ouverture Conférence sur l'intelligence artificielle distribuée Appel à communications DAI 2024 : Agent Day, Richard Sutton, le père de l'apprentissage par renforcement, sera présent ! Yan Shuicheng, Sergey Levine et les scientifiques de DeepMind prononceront des discours d'ouverture Aug 22, 2024 pm 08:02 PM

Introduction à la conférence Avec le développement rapide de la science et de la technologie, l'intelligence artificielle est devenue une force importante dans la promotion du progrès social. À notre époque, nous avons la chance d’être témoins et de participer à l’innovation et à l’application de l’intelligence artificielle distribuée (DAI). L’intelligence artificielle distribuée est une branche importante du domaine de l’intelligence artificielle, qui a attiré de plus en plus d’attention ces dernières années. Les agents basés sur de grands modèles de langage (LLM) ont soudainement émergé. En combinant les puissantes capacités de compréhension du langage et de génération des grands modèles, ils ont montré un grand potentiel en matière d'interaction en langage naturel, de raisonnement par connaissances, de planification de tâches, etc. AIAgent reprend le grand modèle de langage et est devenu un sujet brûlant dans le cercle actuel de l'IA. Au

Hongmeng Smart Travel S9 et conférence de lancement de nouveaux produits avec scénario complet, un certain nombre de nouveaux produits à succès ont été lancés ensemble Hongmeng Smart Travel S9 et conférence de lancement de nouveaux produits avec scénario complet, un certain nombre de nouveaux produits à succès ont été lancés ensemble Aug 08, 2024 am 07:02 AM

Cet après-midi, Hongmeng Zhixing a officiellement accueilli de nouvelles marques et de nouvelles voitures. Le 6 août, Huawei a organisé la conférence de lancement de nouveaux produits Hongmeng Smart Xingxing S9 et Huawei, réunissant la berline phare intelligente panoramique Xiangjie S9, le nouveau M7Pro et Huawei novaFlip, MatePad Pro 12,2 pouces, le nouveau MatePad Air, Huawei Bisheng With de nombreux nouveaux produits intelligents tous scénarios, notamment la série d'imprimantes laser X1, FreeBuds6i, WATCHFIT3 et l'écran intelligent S5Pro, des voyages intelligents, du bureau intelligent aux vêtements intelligents, Huawei continue de construire un écosystème intelligent complet pour offrir aux consommateurs une expérience intelligente du Internet de tout. Hongmeng Zhixing : Autonomisation approfondie pour promouvoir la modernisation de l'industrie automobile intelligente Huawei s'associe à ses partenaires de l'industrie automobile chinoise pour fournir

See all articles