Table des matières
Pourquoi tu te disputes encore ? " >Pourquoi tu te disputes encore ?
Le père du LSTM a présenté "six pièces majeures de évidence" " >Le père du LSTM a présenté "six pièces majeures de évidence"
La dernière fois, c'était il y a quelques mois" >La dernière fois, c'était il y a quelques mois
Maison Périphériques technologiques IA Le père du LSTM a encore une fois défié LeCun : Vos cinq points « d'innovation » m'ont tous été copiés ! Mais malheureusement, 'je ne peux pas le relire'

Le père du LSTM a encore une fois défié LeCun : Vos cinq points « d'innovation » m'ont tous été copiés ! Mais malheureusement, 'je ne peux pas le relire'

Apr 16, 2023 am 10:04 AM
数据 模型

Récemment, Jürgen Schmidhuber, le père du LSTM, a de nouveau eu un désaccord avec LeCun !

En fait, les étudiants qui connaissent un peu cet homme grincheux savent qu'il y a eu des désagréments entre le non-conformiste Jürgen Schmidhuber et plusieurs grands noms de la communauté du machine learning.

Surtout lorsque "ces trois personnes" ont remporté le prix Turing ensemble, mais pas Schmidhuber, le vieil homme est devenu encore plus en colère...

Après tout, Schmidhuber a toujours cru que ces ML étaient désormais des personnalités telles que Bengio, Hinton, LeCun, y compris le père de « GAN » Goodfellow et d'autres, bon nombre de leurs soi-disant « résultats pionniers » ont été proposés pour la première fois par eux-mêmes, et ces personnes ne l'ont pas du tout mentionné dans le journal.

Pour cette raison, Schmidhuber a écrit un jour un article spécial pour critiquer l'article de synthèse "Deep Learning" publié par Bengio, Hinton et LeCun dans Nature en 2015.

Parlant principalement des résultats dans cet article, des choses qu'il a mentionnées en premier et des choses qui ont été mentionnées en premier par d'autres personnes âgées. Quoi qu'il en soit, ce ne sont pas les trois auteurs qui l'ont mentionné en premier.

Pourquoi tu te disputes encore ?

Retour à la cause de cet incident, il s'agissait en fait d'un tweet envoyé par LeCun en septembre.

Le contenu est une réponse à la question du professeur David Chalmers : "Quelle est la percée intellectuelle (nouvelle idée) la plus importante dans l'IA au cours des dix dernières années ?"

Le père du LSTM a encore une fois défié LeCun : Vos cinq points « d'innovation » m'ont tous été copiés ! Mais malheureusement, 'je ne peux pas le relire'

Le 4 octobre, a déclaré Schmidhuber. dans son Un article sur le blog a écrit avec colère : La plupart de ces cinq « meilleures idées » sont venues de mon laboratoire, et elles ont été proposées bien avant le délai des « 10 ans ».

Dans l'article, Schmidhuber a énuméré en détail six éléments de preuve pour étayer son argument.

Le père du LSTM a encore une fois défié LeCun : Vos cinq points « d'innovation » m'ont tous été copiés ! Mais malheureusement, 'je ne peux pas le relire'

Mais probablement parce que trop peu de gens l'ont vu, Schmidhuber a de nouveau tweeté le 22 novembre pour attiser à nouveau ce "riz froid".

Cependant, par rapport à la dernière fois, qui avait été une dispute assez houleuse, cette fois LeCun n'y a même pas prêté attention...

Le père du LSTM a encore une fois défié LeCun : Vos cinq points « d'innovation » m'ont tous été copiés ! Mais malheureusement, 'je ne peux pas le relire'

Le père du LSTM a présenté "six pièces majeures de évidence"

1. "Apprentissage auto-supervisé" qui génère automatiquement des annotations via des réseaux de neurones (NN) : Cela remonte au moins à mon travail en 1990-91.

(I) Apprenez à compresser des séquences de données à plusieurs échelles de temps et niveaux d'abstraction via la génération d'objets auto-supervisés dans un réseau neuronal récurrent (RNN) via un codage prédictif.

Ici, un RNN « automate » apprend la pré-tâche de « prédire la prochaine entrée » et envoie des observations inattendues dans le flux de données entrant comme cibles au RNN « chunker », qui apprend les régularités de niveau supérieur puis affine leur acquis des connaissances prédictives dans l’automate via des objectifs de formation appropriés.

Cela facilite grandement les tâches d'apprentissage profond en aval de classification de séquences qui étaient auparavant insolubles.

Le père du LSTM a encore une fois défié LeCun : Vos cinq points « d'innovation » m'ont tous été copiés ! Mais malheureusement, 'je ne peux pas le relire'

(II) Génération d'annotations auto-supervisée via une motivation intrinsèque de type GAN, où un modèle mondial NN apprend à prédire les conséquences comportementales d'un contrôleur NN contradictoire, générateur d'annotations et inventé expérimentalement.

Le père du LSTM a encore une fois défié LeCun : Vos cinq points « d'innovation » m'ont tous été copiés ! Mais malheureusement, 'je ne peux pas le relire'

De plus, le terme « auto-supervision » apparaissait déjà dans le titre de l'article que j'ai publié en 1990.

Mais ce mot a également été utilisé dans un article antérieur (1978)...

Le père du LSTM a encore une fois défié LeCun : Vos cinq points « d'innovation » m'ont tous été copiés ! Mais malheureusement, 'je ne peux pas le relire'

2. "ResNets" : En fait, ce sont Highway Nets que j'ai proposé très tôt. Mais LeCun pense que l'intelligence des ResNets n'est « pas profonde », ce qui me rend très triste.

Avant de proposer Highway Nets, les réseaux à rétroaction ne comportaient que quelques dizaines de couches (20 à 30 couches) au maximum, tandis que Highway Nets était le premier réseau neuronal à rétroaction véritablement profond avec des centaines de couches.

Le père du LSTM a encore une fois défié LeCun : Vos cinq points « d'innovation » m'ont tous été copiés ! Mais malheureusement, 'je ne peux pas le relire'

Dans les années 1990, mon LSTM a apporté une profondeur essentiellement infinie aux NN récursifs supervisés. Dans les années 2000, les Highway Nets inspirés du LSTM ont apporté de la profondeur aux NN à rétroaction.

En conséquence, LSTM est devenu le NN le plus cité au 20e siècle, et Highway Nets (ResNet) est le NN le plus cité au 21e siècle.

On peut dire qu'ils représentent l'essence du deep learning, et le deep learning concerne la profondeur du NN.

3. "Gating->Attention->Dynamic Connected Graph" : Il peut être retracé au moins à mes programmeurs de poids rapide et à mes réseaux de mémoire de valeurs clés de 1991 à 1993 (la "valeur clé" appelée "DE-À").

En 1993, j'ai introduit le terme « attention » tel que nous l'utilisons aujourd'hui.

Le père du LSTM a encore une fois défié LeCun : Vos cinq points « d'innovation » m'ont tous été copiés ! Mais malheureusement, 'je ne peux pas le relire'

Cependant, il convient de noter que la première porte de multiplication dans NN remonte à la machine d'apprentissage profond d'Ivakhnenko et Lapa en 1965.

4. "Mémoire différenciable" : Elle remonte également à mes programmeurs de poids rapide ou à mes réseaux de mémoire à valeurs clés en 1991.

Stockage et contrôle séparés comme dans les ordinateurs traditionnels, mais de manière différentielle de bout en bout, adaptative et entièrement neuronale (pas de manière hybride).

Le père du LSTM a encore une fois défié LeCun : Vos cinq points « d'innovation » m'ont tous été copiés ! Mais malheureusement, 'je ne peux pas le relire'

5. "Modules équivariants de remplacement, tels que l'auto-attention multi-têtes->Transformer": J'ai publié un Transformer avec une auto-attention linéarisée en 1991. Le terme correspondant « projecteurs d’attention internes » remonte à 1993.

6. "GAN est le meilleur concept d'apprentissage automatique des 10 dernières années"

Le principe du GAN (2014) que vous évoquez est en fait le principe que j'ai développé en 1990 avec l'intelligence artificielle Raised au nom de la curiosité.

Le père du LSTM a encore une fois défié LeCun : Vos cinq points « d'innovation » m'ont tous été copiés ! Mais malheureusement, 'je ne peux pas le relire'

La dernière fois, c'était il y a quelques mois

En fait, ce n'est pas la première fois que Schmidhuber et LeCun ont un différend cette année.

En juin et juillet, les deux hommes se sont disputés au sujet d'un rapport prospectif sur "l'orientation future de l'intelligence artificielle autonome" publié par LeCun.

Le 27 juin, Yann LeCun a publié l'article "A Path Towards Autonomous Machine Intelligence" qu'il préparait depuis plusieurs années, le qualifiant de "travail qui indique l'orientation future du développement de l'IA".

Le père du LSTM a encore une fois défié LeCun : Vos cinq points « d'innovation » m'ont tous été copiés ! Mais malheureusement, 'je ne peux pas le relire'

Cet article aborde systématiquement la question de "comment les machines peuvent apprendre comme les animaux et les humains" et fait plus de 60 pages.

LeCun a déclaré que cet article ne reflète pas seulement ses réflexions sur l'orientation générale du développement de l'IA dans les 5 à 10 prochaines années, mais aussi ce qu'il prévoit de rechercher au cours des prochaines années et espère inspirer davantage de personnes dans le Domaine de l'IA à étudier ensemble.

Le père du LSTM a encore une fois défié LeCun : Vos cinq points « d'innovation » m'ont tous été copiés ! Mais malheureusement, 'je ne peux pas le relire'

Et Schmidhuber a appris la nouvelle environ dix jours à l'avance, a obtenu le journal et a immédiatement écrit un article pour la réfuter.

Selon le propre article de blog de Schmidhuber, voici ce qui s'est passé à l'époque :

Le 14 juin 2022, un média scientifique a annoncé que LeCun publierait un rapport le 27 juin. Il m'a envoyé une ébauche du rapport (il était encore confidentiel à l'époque) et m'a demandé de commenter.

J'ai écrit une critique leur disant qu'il s'agissait essentiellement d'une réplique de notre travail précédent, qui n'était pas mentionné dans l'article de LeCun.

Cependant, mes opinions sont tombées dans l’oreille d’un sourd.

Le père du LSTM a encore une fois défié LeCun : Vos cinq points « d'innovation » m'ont tous été copiés ! Mais malheureusement, 'je ne peux pas le relire'

En fait, bien avant la publication de son article, nous avions proposé dans cet article la plupart des soi-disant « principales contributions originales » de LeCun, notamment :

(1) « Architecture cognitive dans laquelle tous les modules sont séparables et de nombreux modules peuvent être formés » (proposé par nous en 1990).

(2) "Prédire les structures hiérarchiques des modèles du monde, apprendre des représentations à plusieurs niveaux d'abstraction et à plusieurs échelles de temps" (nous avons proposé en 1991).

(3) "Paradigme d'apprentissage auto-supervisé qui produit des représentations à la fois informatives et prévisibles" (Notre modèle est utilisé en apprentissage par renforcement et en modélisation du monde depuis 1997)

( 4) Modèles prédictifs "pour l'apprentissage hiérarchique planification sous incertitude", y compris les générateurs de sous-objectifs neuronaux basés sur un gradient (1990), le raisonnement dans des espaces de concepts abstraits (1997) et "l'apprentissage des actions principalement par l'observation". Les réseaux de neurones (2015) et apprendre à penser (2015) ont tous deux été proposés par nous d'abord.

Le 14 juillet, Yann LeCun a répondu en affirmant que la discussion devait être constructive. Il a dit ceci :

Je ne veux pas me lancer dans un débat vide de sens sur "qui a inventé un certain concept ?" Je ne veux pas fouiller dans les 160 références répertoriées dans votre article de réponse. Je pense qu'une approche plus constructive serait d'identifier 4 publications qui, selon vous, pourraient contenir des idées et des méthodes issues des 4 contributions que j'ai répertoriées.

Comme je l'ai dit au début de cet article, il existe de nombreux concepts qui existent depuis longtemps, et ni vous ni moi ne sommes les inventeurs de ces concepts : par exemple, le concept de modèles mondiaux affinables , qui remonte aux premiers jours du contrôle d'optimisation des travaux.

La formation du modèle mondial utilise des réseaux de neurones pour apprendre l'identification du système du modèle mondial. Cette idée remonte à la fin des années 1980, avec les travaux de Michael Jordan, Bernie Widrow, Robinson & Fallside, Kumpathi Narendra, Paul Werbos, tous meilleurs. que le vôtre. Travaillez plus tôt.

À mon avis, cette réponse d'homme de paille semble être LeCun qui change de sujet et évite la question de s'attribuer le mérite des autres dans sa soi-disant "contribution originale principale".

J'ai répondu le 14 juillet :

Concernant ce que vous avez dit à propos de « quelque chose que ni vous ni moi n'avons inventé » : Votre article affirme que l'utilisation des réseaux de neurones pour l'identification des systèmes remonte au début des années 1990. Cependant, dans votre réponse précédente, vous sembliez être d’accord avec moi sur le fait que les premiers articles sur ce sujet sont apparus dans les années 1980.

Quant à votre "principale contribution originale", ils ont en fait utilisé les résultats de mes premiers travaux.

(1) Concernant "l'architecture cognitive" que vous proposez, dans laquelle tous les modules sont différenciables et de nombreux modules peuvent être entraînés" et "le comportement est motivé par la motivation intrinsèque":

J'ai proposé une architecture différenciable pour l'apprentissage et la planification en ligne en 1990. Il s'agissait du premier contrôleur doté d'une « motivation intrinsèque » pour améliorer le modèle mondial. Il était à la fois génératif et contradictoire. Le GAN 2014 cité dans l'article est une version dérivée de ce modèle ;

(2) Concernant votre proposition de "structure hiérarchique de modèles du monde prédictifs qui apprennent des représentations à plusieurs niveaux d'abstraction et échelles de temps" :

Ceci est tiré de ma neurohistoire de 1991 que Compressor réalise. Il utilise un codage prédictif pour apprendre des représentations internes hiérarchiques de données à séquence longue de manière auto-supervisée, ce qui facilite grandement l'apprentissage en aval. En utilisant ma procédure de raffinement de réseau neuronal de 1991, ces représentations peuvent être regroupées en un seul réseau neuronal récurrent (RNN).

(3) Concernant votre "paradigme d'apprentissage auto-supervisé pour produire des représentations à la fois informatives et prévisibles" en termes de contrôle :

Cela était déjà proposé dans le système que j'ai proposé de construire en 1997 . Plutôt que de prédire tous les détails des entrées futures, il peut poser des questions abstraites arbitraires et donner des réponses calculables dans ce que vous appelez un « espace de représentation ». Dans ce système, deux modèles d'apprentissage appelés « cerveau gauche » et « cerveau droit » sélectionnent des adversaires avec des récompenses maximales pour s'engager dans des jeux à somme nulle, et parient occasionnellement sur les résultats de telles expériences informatiques.

(4) Concernant votre modèle différenciable prédictif de planification hiérarchique qui peut être utilisé sous incertitude, votre article dit ceci :

"Une question sans réponse est la suivante : comment le configurateur apprend à décomposer une tâche complexe en une série de sous-objectifs qui peuvent être complétés par l'agent seul. Je laisserai cette question à une enquête future. "

Ne dites rien sur l'avenir, en fait j'ai 30 ans. Cet article a été publié il y a de nombreuses années :

Un réseau neuronal de contrôleur est chargé d'obtenir une entrée de commande supplémentaire, qui est de la forme (démarrage, cible). Un réseau neuronal d’estimateur est chargé d’apprendre à prédire le coût attendu du début à l’objectif. Un générateur de sous-objectifs basé sur un réseau neuronal récurrent affinable voit cette entrée (début, objectif) et apprend une séquence de sous-objectifs intermédiaires à coût minimal via une descente de gradient à l'aide d'un réseau neuronal d'estimateur.

(5) Vous avez également souligné le réseau neuronal qui « apprend le comportement principalement par l'observation ». Nous avons en fait résolu ce problème très tôt, en 2015 avec cet article, qui traitait du problème général de l'apprentissage par renforcement (RL) dans des environnements partiellement observables.

Le père du LSTM a encore une fois défié LeCun : Vos cinq points « d'innovation » m'ont tous été copiés ! Mais malheureusement, 'je ne peux pas le relire'

Un modèle mondial M peut être doué pour prédire certaines choses mais incertain pour d'autres. Le contrôleur C maximise sa fonction objective en apprenant à interroger et à interpréter les réponses (plus de modèles d'activation) à travers une séquence de questions auto-inventées (modèles d'activation).

C peut bénéficier de l'apprentissage pour extraire tout type d'informations algorithmiques de M, comme pour la planification et le raisonnement hiérarchiques, en tirant parti des observations passives codées dans M, etc.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

AI Hentai Generator

AI Hentai Generator

Générez AI Hentai gratuitement.

Article chaud

R.E.P.O. Crystals d'énergie expliqués et ce qu'ils font (cristal jaune)
2 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
Repo: Comment relancer ses coéquipiers
1 Il y a quelques mois By 尊渡假赌尊渡假赌尊渡假赌
Hello Kitty Island Adventure: Comment obtenir des graines géantes
4 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
Combien de temps faut-il pour battre Split Fiction?
3 Il y a quelques semaines By DDD

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Open source! Au-delà de ZoeDepth ! DepthFM : estimation rapide et précise de la profondeur monoculaire ! Open source! Au-delà de ZoeDepth ! DepthFM : estimation rapide et précise de la profondeur monoculaire ! Apr 03, 2024 pm 12:04 PM

0. À quoi sert cet article ? Nous proposons DepthFM : un modèle d'estimation de profondeur monoculaire génératif de pointe, polyvalent et rapide. En plus des tâches traditionnelles d'estimation de la profondeur, DepthFM démontre également des capacités de pointe dans les tâches en aval telles que l'inpainting en profondeur. DepthFM est efficace et peut synthétiser des cartes de profondeur en quelques étapes d'inférence. Lisons ce travail ensemble ~ 1. Titre des informations sur l'article : DepthFM : FastMonocularDepthEstimationwithFlowMatching Auteur : MingGui, JohannesS.Fischer, UlrichPrestel, PingchuanMa, Dmytr

Le modèle MoE open source le plus puissant au monde est ici, avec des capacités chinoises comparables à celles du GPT-4, et le prix ne représente que près d'un pour cent de celui du GPT-4-Turbo. Le modèle MoE open source le plus puissant au monde est ici, avec des capacités chinoises comparables à celles du GPT-4, et le prix ne représente que près d'un pour cent de celui du GPT-4-Turbo. May 07, 2024 pm 04:13 PM

Imaginez un modèle d'intelligence artificielle qui non seulement a la capacité de surpasser l'informatique traditionnelle, mais qui permet également d'obtenir des performances plus efficaces à moindre coût. Ce n'est pas de la science-fiction, DeepSeek-V2[1], le modèle MoE open source le plus puissant au monde est ici. DeepSeek-V2 est un puissant mélange de modèle de langage d'experts (MoE) présentant les caractéristiques d'une formation économique et d'une inférence efficace. Il est constitué de 236B paramètres, dont 21B servent à activer chaque marqueur. Par rapport à DeepSeek67B, DeepSeek-V2 offre des performances plus élevées, tout en économisant 42,5 % des coûts de formation, en réduisant le cache KV de 93,3 % et en augmentant le débit de génération maximal à 5,76 fois. DeepSeek est une entreprise explorant l'intelligence artificielle générale

KAN, qui remplace MLP, a été étendu à la convolution par des projets open source KAN, qui remplace MLP, a été étendu à la convolution par des projets open source Jun 01, 2024 pm 10:03 PM

Plus tôt ce mois-ci, des chercheurs du MIT et d'autres institutions ont proposé une alternative très prometteuse au MLP – KAN. KAN surpasse MLP en termes de précision et d’interprétabilité. Et il peut surpasser le MLP fonctionnant avec un plus grand nombre de paramètres avec un très petit nombre de paramètres. Par exemple, les auteurs ont déclaré avoir utilisé KAN pour reproduire les résultats de DeepMind avec un réseau plus petit et un degré d'automatisation plus élevé. Plus précisément, le MLP de DeepMind compte environ 300 000 paramètres, tandis que le KAN n'en compte qu'environ 200. KAN a une base mathématique solide comme MLP est basé sur le théorème d'approximation universelle, tandis que KAN est basé sur le théorème de représentation de Kolmogorov-Arnold. Comme le montre la figure ci-dessous, KAN a

Bonjour, Atlas électrique ! Le robot Boston Dynamics revient à la vie, des mouvements étranges à 180 degrés effraient Musk Bonjour, Atlas électrique ! Le robot Boston Dynamics revient à la vie, des mouvements étranges à 180 degrés effraient Musk Apr 18, 2024 pm 07:58 PM

Boston Dynamics Atlas entre officiellement dans l’ère des robots électriques ! Hier, l'Atlas hydraulique s'est retiré "en larmes" de la scène de l'histoire. Aujourd'hui, Boston Dynamics a annoncé que l'Atlas électrique était au travail. Il semble que dans le domaine des robots humanoïdes commerciaux, Boston Dynamics soit déterminé à concurrencer Tesla. Après la sortie de la nouvelle vidéo, elle a déjà été visionnée par plus d’un million de personnes en seulement dix heures. Les personnes âgées partent et de nouveaux rôles apparaissent. C'est une nécessité historique. Il ne fait aucun doute que cette année est l’année explosive des robots humanoïdes. Les internautes ont commenté : Les progrès des robots ont fait ressembler la cérémonie d'ouverture de cette année à des êtres humains, et le degré de liberté est bien plus grand que celui des humains. Mais n'est-ce vraiment pas un film d'horreur ? Au début de la vidéo, Atlas est allongé calmement sur le sol, apparemment sur le dos. Ce qui suit est à couper le souffle

L'IA bouleverse la recherche mathématique ! Le lauréat de la médaille Fields et mathématicien sino-américain a dirigé 11 articles les mieux classés | Aimé par Terence Tao L'IA bouleverse la recherche mathématique ! Le lauréat de la médaille Fields et mathématicien sino-américain a dirigé 11 articles les mieux classés | Aimé par Terence Tao Apr 09, 2024 am 11:52 AM

L’IA change effectivement les mathématiques. Récemment, Tao Zhexuan, qui a prêté une attention particulière à cette question, a transmis le dernier numéro du « Bulletin de l'American Mathematical Society » (Bulletin de l'American Mathematical Society). En se concentrant sur le thème « Les machines changeront-elles les mathématiques ? », de nombreux mathématiciens ont exprimé leurs opinions. L'ensemble du processus a été plein d'étincelles, intense et passionnant. L'auteur dispose d'une équipe solide, comprenant Akshay Venkatesh, lauréat de la médaille Fields, le mathématicien chinois Zheng Lejun, l'informaticien de l'Université de New York Ernest Davis et de nombreux autres universitaires bien connus du secteur. Le monde de l’IA a radicalement changé. Vous savez, bon nombre de ces articles ont été soumis il y a un an.

La vitalité de la super intelligence s'éveille ! Mais avec l'arrivée de l'IA qui se met à jour automatiquement, les mères n'ont plus à se soucier des goulots d'étranglement des données. La vitalité de la super intelligence s'éveille ! Mais avec l'arrivée de l'IA qui se met à jour automatiquement, les mères n'ont plus à se soucier des goulots d'étranglement des données. Apr 29, 2024 pm 06:55 PM

Je pleure à mort. Le monde construit à la folie de grands modèles. Les données sur Internet ne suffisent pas du tout. Le modèle de formation ressemble à « The Hunger Games », et les chercheurs en IA du monde entier se demandent comment nourrir ces personnes avides de données. Ce problème est particulièrement important dans les tâches multimodales. À une époque où rien ne pouvait être fait, une équipe de start-up du département de l'Université Renmin de Chine a utilisé son propre nouveau modèle pour devenir la première en Chine à faire de « l'auto-alimentation des données générées par le modèle » une réalité. De plus, il s’agit d’une approche à deux volets, du côté compréhension et du côté génération, les deux côtés peuvent générer de nouvelles données multimodales de haute qualité et fournir un retour de données au modèle lui-même. Qu'est-ce qu'un modèle ? Awaker 1.0, un grand modèle multimodal qui vient d'apparaître sur le Forum Zhongguancun. Qui est l'équipe ? Moteur Sophon. Fondé par Gao Yizhao, doctorant à la Hillhouse School of Artificial Intelligence de l’Université Renmin.

Vitesse Internet lente des données cellulaires sur iPhone : correctifs Vitesse Internet lente des données cellulaires sur iPhone : correctifs May 03, 2024 pm 09:01 PM

Vous êtes confronté à un décalage et à une connexion de données mobile lente sur iPhone ? En règle générale, la puissance de l'Internet cellulaire sur votre téléphone dépend de plusieurs facteurs tels que la région, le type de réseau cellulaire, le type d'itinérance, etc. Vous pouvez prendre certaines mesures pour obtenir une connexion Internet cellulaire plus rapide et plus fiable. Correctif 1 – Forcer le redémarrage de l'iPhone Parfois, le redémarrage forcé de votre appareil réinitialise simplement beaucoup de choses, y compris la connexion cellulaire. Étape 1 – Appuyez simplement une fois sur la touche d’augmentation du volume et relâchez-la. Ensuite, appuyez sur la touche de réduction du volume et relâchez-la à nouveau. Étape 2 – La partie suivante du processus consiste à maintenir le bouton sur le côté droit. Laissez l'iPhone finir de redémarrer. Activez les données cellulaires et vérifiez la vitesse du réseau. Vérifiez à nouveau Correctif 2 – Changer le mode de données Bien que la 5G offre de meilleures vitesses de réseau, elle fonctionne mieux lorsque le signal est plus faible

L'US Air Force présente son premier avion de combat IA de grande envergure ! Le ministre a personnellement effectué l'essai routier sans intervenir pendant tout le processus, et 100 000 lignes de code ont été testées 21 fois. L'US Air Force présente son premier avion de combat IA de grande envergure ! Le ministre a personnellement effectué l'essai routier sans intervenir pendant tout le processus, et 100 000 lignes de code ont été testées 21 fois. May 07, 2024 pm 05:00 PM

Récemment, le milieu militaire a été submergé par la nouvelle : les avions de combat militaires américains peuvent désormais mener des combats aériens entièrement automatiques grâce à l'IA. Oui, tout récemment, l’avion de combat IA de l’armée américaine a été rendu public pour la première fois, dévoilant ainsi son mystère. Le nom complet de ce chasseur est Variable Stability Simulator Test Aircraft (VISTA). Il a été personnellement piloté par le secrétaire de l'US Air Force pour simuler une bataille aérienne en tête-à-tête. Le 2 mai, le secrétaire de l'US Air Force, Frank Kendall, a décollé à bord d'un X-62AVISTA à la base aérienne d'Edwards. Notez que pendant le vol d'une heure, toutes les actions de vol ont été effectuées de manière autonome par l'IA ! Kendall a déclaré : "Au cours des dernières décennies, nous avons réfléchi au potentiel illimité du combat air-air autonome, mais cela a toujours semblé hors de portée." Mais maintenant,

See all articles