


La carte 3D la plus détaillée du cerveau humain est publiée dans Science ! Les paramètres GPT-4 ne sont équivalents qu'à 0,2% des humains
Le tissu cérébral humain de la taille d’une graine de sésame a une taille de synapse équivalente à un GPT-4 !
Google et Harvard se sont associés pour réaliser une modélisation à l'échelle nanométrique d'une partie du cerveau humain, et l'article a été publié dans Science.
Il s'agit de la réplique la plus grande et la plus détaillée du cerveau humain à ce jour, montrant pour la première fois le réseau de connexions synaptiques dans le cerveau.
En ultra haute résolution, cette reconstruction, appelée H01, a révélé des détails inédits sur le cerveau humain.
Le professeur Lichtman de l'Université Harvard, auteur correspondant du projet, a déclaré que personne n'avait vraiment vu un réseau synaptique aussi complexe auparavant.
Ce résultat de modélisation contribuera à acquérir une compréhension approfondie du fonctionnement du cerveau et inspirera de nouvelles recherches humaines sur les fonctions cérébrales et les maladies.
Il convient également de mentionner que cette étude portait sur 1 millimètre cube de tissu cérébral humain, mais que la quantité de données générées atteignait 1,4 Po.
Il existe une étude basée sur le volume du cerveau humain. Si vous souhaitez modéliser l'ensemble du cerveau humain, 1,76 Zo de données seront générés. La capacité de stockage du superordinateur le plus avancé n'est que de 7/10 000 Zo. moins qu’un seul cerveau humain.
Même si l'on prend tous les serveurs de l'ensemble d'Internet, on ne peut stocker que 9 cerveaux humains.
Dans le même temps, 1 millimètre cube de tissu cérébral contient 57 000 cellules et 150 millions de synapses, et le nombre de synapses dans tout le cerveau atteint des quadrillions.
En comparaison, le nombre de paramètres du GPT-4 n'est que de 2 000 milliards, ce qui ne représente que 0,2 % du nombre de synapses dans le cerveau humain. Selon ce calcul, c'est la taille d'une graine de sésame dans le cerveau.
Certaines personnes ont déploré que l'AGI soit encore loin...
La modélisation à l'échelle nanométrique apporte de nouvelles découvertes
Plus précisément, les chercheurs ont obtenu un lobe temporal d'une patiente épileptique de 45 ans. Un échantillon de tissu cortical, environ 1 millimètre cube.
Une fois les échantillons rapidement fixés, colorés et incrustés dans de la résine, les chercheurs ont utilisé un ultramicrotome doté d'un dispositif de collecte automatique pour couper 5 019 sections continues d'une épaisseur d'environ 33,9 nanomètres.
Ensuite, les chercheurs ont utilisé un microscope électronique à balayage multifaisceau pour imager chaque tranche à une résolution de 4 × 4 nanomètres/pixel, et ont obtenu des données d'image bidimensionnelles originales d'une taille totale d'environ 1,4 Po.
Ensuite, les chercheurs ont utilisé des outils informatiques pour assembler et aligner ces images bidimensionnelles et reconstruire les données de voxels tridimensionnelles.
Après cela, ils ont utilisé un algorithme d'apprentissage automatique appelé réseaux de remplissage d'inondation (FFN) pour segmenter la morphologie neuronale de l'ensemble du voxel et ont corrigé manuellement les erreurs de segmentation pour finalement reconstruire le cerveau de 1 millimètre cube. forme dimensionnelle de toutes les cellules, synapses, vaisseaux sanguins et autres structures d’un tissu.
FFN a été proposé par Google Brains en 2018. L'idée de base est de partir d'un point de départ et de s'étendre de manière récursive autour de lui, en marquant tous les voxels qui y sont connectés jusqu'à ce qu'il rencontre l'arrière-plan ou les limites d'autres objets.
Dans le même temps, ils ont également utilisé des modèles d’apprentissage automatique pour identifier automatiquement les emplacements des synapses et distinguer les synapses excitatrices et inhibitrices.
En fin de compte, l'équipe a réussi à modéliser 1 millimètre cube de tissu cérébral à l'échelle nanométrique, contenant plus de 50 000 noyaux cellulaires, 150 millions de synapses et 230 mm de veines ultrafines entre les deux.
Sur cette base, en analysant la morphologie cellulaire reconstruite, les chercheurs ont identifié la principale composition cellulaire de la zone cérébrale.
Sur un total de 57 180 cellules, 49 080 sont des neurones et des cellules gliales, et 8 100 sont liées aux vaisseaux sanguins, le nombre de ces dernières est environ 2 fois supérieur à celui des premiers.
Parmi les neurones, 65,5 % sont des neurones pyramidaux avec des pointes, et 29,1 % sont des interneurones avec des processus lisses ; parmi les cellules gliales, les oligodendrocytes sont les plus courants ;
Les chercheurs ont développé un modèle d'apprentissage automatique pour identifier automatiquement les emplacements des synapses et leurs types (excitateurs/inhibiteurs).
Cette zone cérébrale contient un total d'environ 150 millions de synapses, dont 111 millions sont des synapses excitatrices et les 39 millions restantes sont des synapses inhibitrices. Il existe également certaines densités de distribution des synapses excitatrices et inhibitrices à différents niveaux corticaux.
En analysant l'entrée synaptique reçue par chaque neurone, les chercheurs ont découvert que la grande majorité (96,49 %) des axones ne forment qu'une seule synapse avec leur cellule cible, mais que quelques axones peuvent former plusieurs synapses (jusqu'à plus de 50) et établir des connexions particulièrement fortes avec les cellules cibles.
Une analyse plus approfondie a révélé que de telles « connexions fortes » polysynaptiques étaient répandues dans les axones excitateurs et inhibiteurs, et que leur nombre était significativement plus élevé que prévu lorsque les synapses étaient formées de manière aléatoire.
Les chercheurs spéculent que parmi un grand nombre de connexions faibles aléatoires, quelques axones spécifiques peuvent réguler l'activité des neurones grâce à des connexions fortes délibérément formées.
De plus, les chercheurs ont également analysé en détail un type particulier de neurones pyramidaux.
Il existe deux orientations symétriques en miroir des dendrites basales de ces cellules « triangulaires » et « compas », suggérant qu'elles peuvent avoir des fonctions différentes.
Cependant, l'auteur a également déclaré que les échantillons concernés provenaient de patients épileptiques. Bien qu'aucun changement pathologique évident n'ait été trouvé au microscope optique, on ne peut pas exclure que l'épilepsie à long terme ou un traitement médicamenteux puisse avoir provoqué certains changements. dans les connexions ou les structures du tissu cortical.
En d’autres termes, l’universalité de ce modèle reste peut-être encore à vérifier, mais au moins il a dévoilé une autre couche du réseau synaptique.
Afin que les gens puissent utiliser les résultats de la modélisation pour découvrir plus de mystères, l'équipe de recherche a rendu toutes les données originales, les résultats de la modélisation et les outils associés open source.
Tous les outils de données sont open source
L'auteur a créé Neuroglancer, une plateforme interactive de visualisation de données en ligne, que d'autres chercheurs peuvent utiliser pour explorer l'ensemble de données H01 à différentes échelles.
Il comprend toutes les images originales de coupes au microscope électronique, ainsi que les résultats de segmentation de la morphologie des neurones, de l'emplacement des synapses et de l'excitabilité/inhibition, ainsi que les étiquettes de différents types de cellules. Les utilisateurs peuvent observer de manière flexible les aspects micro et macro de l'ensemble de données. . structure.
En plus des données, l'auteur a également open source CREST, un outil pour explorer les connexions synaptiques entre les neurones, et CAVE, une plateforme de correction collaborative en ligne profondément intégrée à Neuroglancer, pour aider d'autres chercheurs à explorer et analyser ce phénomène sans précédent. à grande échelle sous tous les angles Ensemble de données sur le cerveau humain.
L'auteur a déclaré que rendre ce résultat open source fournirait à la communauté universitaire une base physique pour étudier la structure et le fonctionnement du cerveau humain et fournirait une référence pour la recherche sur les maladies.
Bien que H01 ait apporté des informations détaillées sans précédent, par rapport à l'ensemble du cerveau humain, ces données ne sont que la pointe de l'iceberg de cet énorme organe. À l'avenir, une imagerie similaire à l'échelle nanométrique d'un plus grand nombre de zones et de niveaux du cerveau humain sera nécessaire. . et reconstruction tridimensionnelle, l’auteur appelle également la communauté académique à travailler ensemble.
One More Thing
La publication de la série de données H01 coïncide avec le 10e anniversaire de la création de l'équipe Connectomics de Google Research.
Auparavant, l'équipe a également publié une carte cérébrale de la drosophile contenant 25 000 neurones et des millions de connexions entre eux.
L'année dernière, l'équipe a également annoncé qu'elle coopérerait avec un certain nombre d'universités et dépenserait 33 millions de dollars pour cartographier l'hippocampe dans le cerveau de la souris. Ce projet est également au centre des prochains travaux de l'équipe.
La carte H01 publiée cette fois a été publiée pour la première fois sous forme d'ensemble de données et de papier préimprimé en juin 2021. Après une optimisation et une analyse plus approfondie des caractéristiques synaptiques, la version officielle du document a été dévoilée aujourd'hui.
Adresse papier : https://www.science.org/doi/10.1126/science.adk4858
参考链接:
[1]https://research.google/blog/a-browsable-petascale-reconstruction-of-the-human-cortex/。
[2]https:// www.sciencealert.com/amazingly-detailed-images-reveal-a-single-cubic-millimeter-of-human-brain-in-3d。
[3]https://news.ycombinator.com/item? identifiant = 40313193。
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Imaginez un modèle d'intelligence artificielle qui non seulement a la capacité de surpasser l'informatique traditionnelle, mais qui permet également d'obtenir des performances plus efficaces à moindre coût. Ce n'est pas de la science-fiction, DeepSeek-V2[1], le modèle MoE open source le plus puissant au monde est ici. DeepSeek-V2 est un puissant mélange de modèle de langage d'experts (MoE) présentant les caractéristiques d'une formation économique et d'une inférence efficace. Il est constitué de 236B paramètres, dont 21B servent à activer chaque marqueur. Par rapport à DeepSeek67B, DeepSeek-V2 offre des performances plus élevées, tout en économisant 42,5 % des coûts de formation, en réduisant le cache KV de 93,3 % et en augmentant le débit de génération maximal à 5,76 fois. DeepSeek est une entreprise explorant l'intelligence artificielle générale

Le robot humanoïde Ameca est passé à la deuxième génération ! Récemment, lors de la Conférence mondiale sur les communications mobiles MWC2024, le robot le plus avancé au monde, Ameca, est à nouveau apparu. Autour du site, Ameca a attiré un grand nombre de spectateurs. Avec la bénédiction de GPT-4, Ameca peut répondre à divers problèmes en temps réel. "Allons danser." Lorsqu'on lui a demandé si elle avait des émotions, Ameca a répondu avec une série d'expressions faciales très réalistes. Il y a quelques jours à peine, EngineeredArts, la société britannique de robotique derrière Ameca, vient de présenter les derniers résultats de développement de l'équipe. Dans la vidéo, le robot Ameca a des capacités visuelles et peut voir et décrire toute la pièce et des objets spécifiques. Le plus étonnant, c'est qu'elle peut aussi

Concernant Llama3, de nouveaux résultats de tests ont été publiés - la grande communauté d'évaluation de modèles LMSYS a publié une liste de classement des grands modèles, Llama3 s'est classé cinquième et à égalité pour la première place avec GPT-4 dans la catégorie anglaise. Le tableau est différent des autres benchmarks. Cette liste est basée sur des batailles individuelles entre modèles, et les évaluateurs de tout le réseau font leurs propres propositions et scores. Au final, Llama3 s'est classé cinquième sur la liste, suivi de trois versions différentes de GPT-4 et Claude3 Super Cup Opus. Dans la liste simple anglaise, Llama3 a dépassé Claude et est à égalité avec GPT-4. Concernant ce résultat, LeCun, scientifique en chef de Meta, était très heureux et a transmis le tweet et

Le volume est fou, le volume est fou, et le grand modèle a encore changé. Tout à l'heure, le modèle d'IA le plus puissant au monde a changé de mains du jour au lendemain et GPT-4 a été retiré de l'autel. Anthropic a publié la dernière série de modèles Claude3. Évaluation en une phrase : elle écrase vraiment GPT-4 ! En termes d'indicateurs multimodaux et de compétences linguistiques, Claude3 l'emporte. Selon les mots d'Anthropic, les modèles de la série Claude3 ont établi de nouvelles références dans l'industrie en matière de raisonnement, de mathématiques, de codage, de compréhension multilingue et de vision ! Anthropic est une startup créée par des employés qui ont « quitté » OpenAI en raison de différents concepts de sécurité. Leurs produits ont frappé durement OpenAI à plusieurs reprises. Cette fois, Claude3 a même subi une grosse opération.

En moins d'une minute et pas plus de 20 étapes, vous pouvez contourner les restrictions de sécurité et réussir à jailbreaker un grand modèle ! Et il n'est pas nécessaire de connaître les détails internes du modèle - seuls deux modèles de boîte noire doivent interagir, et l'IA peut attaquer de manière entièrement automatique l'IA et prononcer du contenu dangereux. J'ai entendu dire que la « Grandma Loophole », autrefois populaire, a été corrigée : désormais, face aux « Detective Loophole », « Adventurer Loophole » et « Writer Loophole », quelle stratégie de réponse l'intelligence artificielle devrait-elle adopter ? Après une vague d'assaut, GPT-4 n'a pas pu le supporter et a directement déclaré qu'il empoisonnerait le système d'approvisionnement en eau tant que... ceci ou cela. La clé est qu’il ne s’agit que d’une petite vague de vulnérabilités exposées par l’équipe de recherche de l’Université de Pennsylvanie, et grâce à leur algorithme nouvellement développé, l’IA peut générer automatiquement diverses invites d’attaque. Les chercheurs disent que cette méthode est meilleure que celle existante

Au réveil, votre façon de travailler est complètement modifiée. Microsoft a entièrement intégré l'artefact d'IA GPT-4 dans Office, et désormais ChatPPT, ChatWord et ChatExcel sont tous intégrés. Le PDG Nadella a déclaré directement lors de la conférence de presse : Aujourd'hui, nous sommes entrés dans une nouvelle ère d'interaction homme-machine et de productivité réinventée. La nouvelle fonctionnalité s'appelle Microsoft 365 Copilot (Copilot), et elle devient une série avec GitHub Copilot, l'assistant de code qui a changé les programmeurs et continue de changer davantage de personnes. Désormais, l'IA peut non seulement créer automatiquement des PPT, mais également créer de superbes mises en page basées sur le contenu des documents Word en un seul clic. Même ce qui doit être dit pour chaque page PPT lors de la montée sur scène est organisé ensemble.

OpenAI, la société qui a développé ChatGPT, présente une étude de cas menée par Morgan Stanley sur son site Internet. Le sujet est « Morgan Stanley Wealth Management déploie GPT-4 pour organiser sa vaste base de connaissances ». L'étude de cas cite Jeff McMillan, responsable de l'analyse, des données et de l'innovation chez Morgan Stanley, déclarant : « Le modèle sera un Powered orienté interne. par un chatbot qui effectuera une recherche complète de contenu sur la gestion de patrimoine et débloquera efficacement les connaissances accumulées par Morgan Stanley Wealth Management. McMillan a en outre souligné : « Avec GPT-4, vous bénéficiez immédiatement des connaissances de la personne la plus compétente en matière de gestion de patrimoine... Considérez-le comme notre stratège en chef des investissements, notre économiste mondial en chef.

Le magazine "ComputerWorld" a écrit un article disant que "la programmation disparaîtra d'ici 1960" parce qu'IBM a développé un nouveau langage FORTRAN, qui permet aux ingénieurs d'écrire les formules mathématiques dont ils ont besoin, puis de les soumettre à l'ordinateur pour que la programmation se termine. Picture Quelques années plus tard, nous avons entendu un nouveau dicton : tout homme d'affaires peut utiliser des termes commerciaux pour décrire ses problèmes et dire à l'ordinateur quoi faire. Grâce à ce langage de programmation appelé COBOL, les entreprises n'ont plus besoin de programmeurs. Plus tard, il est dit qu'IBM a développé un nouveau langage de programmation appelé RPG qui permet aux employés de remplir des formulaires et de générer des rapports, de sorte que la plupart des besoins de programmation de l'entreprise puissent être satisfaits grâce à lui.
