Un millimètre cube ne paraît pas gros, c'est la taille d'une graine de sésame, mais dans le cerveau humain, ce petit espace peut accueillir environ 50 000 lignes nerveuses reliées par 134 millions de synapses (fils neuronaux).
Pour générer les données brutes, les bioscientifiques devaient utiliser la microscopie électronique à coupe ultrafine en série pour imager des milliers de fragments de tissus en 11 mois.
Et la quantité de données finalement obtenues a atteint un étonnant 1,4 PetaBytes (soit 1400 To, équivalent à la capacité d'environ 2 millions de CD-ROM), ce qui est tout simplement un chiffre astronomique pour les chercheurs.
Jeff Lichtman, biologiste moléculaire et cellulaire à l'Université Harvard, a déclaré que si cela est fait uniquement à la main, il est tout simplement impossible pour les humains de tracer manuellement toutes les lignes nerveuses. Il n'y a même pas assez de personnes sur terre. qui peut vraiment faire le travail efficacement.
Les progrès de la technologie de la microscopie ont apporté une grande quantité de données d'imagerie, mais la quantité de données est trop importante et la main-d'œuvre est insuffisante. C'est également le cas pour la Connectomics (Connectomics, une discipline qui étudie la structure. et connexions fonctionnelles du cerveau), et d'autres Phénomènes courants biologiques chez les sujets de terrain.
Mais la mission de l'informatique est précisément de résoudre ce genre de problème de ressources humaines insuffisantes, en particulier l'algorithme d'apprentissage en profondeur optimisé, qui peut exploiter des modèles de données à partir d'ensembles de données à grande échelle.
Beth Cimini, biologiste computationnelle au Broad Institute du MIT et à l'Université Harvard à Cambridge, a déclaré qu'au cours des dernières années, l'apprentissage profond a joué un rôle énorme dans la promotion du domaine de la biologie et a développé de nombreux outils de recherche. .
Voici les cinq domaines de l'analyse d'images biologiques résumés par les éditeurs de Nature dans lesquels l'apprentissage profond a apporté des changements.
Le deep learning permet aux chercheurs de générer des connectomes de plus en plus complexes à partir de mouches des fruits, de souris et même d'humains.
Ces données peuvent aider les neuroscientifiques à comprendre comment fonctionne le cerveau et comment la structure du cerveau change au cours du développement et de la maladie, mais les connexions neuronales ne sont pas faciles à cartographier.
En 2018, Lichtman s'est associé à Viren Jain, responsable de la connectomique chez Google à Mountain View, en Californie, pour trouver des solutions pour les algorithmes d'intelligence artificielle dont l'équipe avait besoin.
La tâche d'analyse d'images en connectomique est en réalité très difficile, il faut être capable de tracer ces fines lignes, les axones et les dendrites des cellules, et sur de longues distances, Les méthodes traditionnelles de traitement d'images sont Il y aura beaucoup de des erreurs dans cette tâche et cela sera fondamentalement inutile pour cette tâche .
Ces brins nerveux peuvent être plus fins qu’un micron, s’étendant sur des centaines de microns ou même sur des tissus de la taille d’un millimètre.
Et l'algorithme d'apprentissage en profondeurpeut non seulement analyser automatiquement les données connectomiques, mais également maintenir une haute précision.
Les chercheurs peuvent utiliser des ensembles de données annotés contenant des caractéristiques d'intérêt pour former des modèles informatiques complexes capables d'identifier rapidement les mêmes caractéristiques dans d'autres données.
Anna Kreshuk, informaticienne au Laboratoire européen de biologie moléculaire, estime que le processus d'utilisation d'algorithmes d'apprentissage profond est similaire à "donner un exemple". Tant qu'il y a suffisamment d'exemples, vous pouvez résoudre tous les problèmes.
Mais même en utilisant l’apprentissage profond, l’équipe de Lichtman et Jain avait une tâche difficile : cartographier des segments du cortex cérébral humain.
Dans la phase de collecte de données, il a fallu 326 jours rien que pour prélever plus de 5 000 coupes de tissus ultra-minces.
Deux chercheurs ont passé environ 100 heures à annoter manuellement des images et à suivre les neurones pour créer un ensemble de données de vérité terrain pour entraîner l'algorithme.
L'algorithme formé à l'aide de données standard peut automatiquement assembler les images, identifier les neurones et les synapses et générer le connectome final.
L'équipe de Jain a également investi beaucoup de ressources informatiques pour résoudre ce problème, notamment des milliers d'unités de traitement tenseur (TPU) , et a passé mois à prétraiter 1 million d'heures TPU requises.
Bien que les chercheurs aient obtenu le plus grand ensemble de données actuellement collectées et puissent le reconstruire à un niveau très fin, cette quantité de données ne représente qu'environ 0,0001% du cerveau humain
Grâce aux améliorations des algorithmes et du matériel. , les chercheurs devraient être capables de cartographier des zones plus vastes du cerveau et de résoudre davantage de caractéristiques cellulaires, telles que les organites et même les protéines.
Au moins, l'apprentissage en profondeur offre une possibilité.
Histologie virtuelleL'histologie est un outil important en médecine pour diagnostiquer des maladies sur la base d'une coloration chimique ou moléculaire.
Mais l'ensemble du processus prend du temps et est laborieux, et prend généralement des jours, voire des semaines.
La biopsie est d'abord découpée en coupes minces, colorées pour montrer les caractéristiques cellulaires et subcellulaires, puis le pathologiste lit et interprète les résultats.
Aydogan Ozcan, ingénieur informatique à l'Université de Californie à Los Angeles, estime que l'ensemble du processus peut être accéléré grâce à l'apprentissage en profondeur.
Il a formé un modèle d'apprentissage profond personnalisé, simulé la coloration d'une coupe de tissu via un ordinateur, a nourri le modèle avec des dizaines de milliers d'échantillons non colorés et colorés sur la même section et a laissé le modèle calculer la différence entre eux .
En plus de l'avantage de temps de la coloration virtuelle (elle peut être réalisée en un instant), les pathologistes ont découvert par observation qu'il n'y a presque aucune différence entre la coloration virtuelle et la coloration traditionnelle, et les professionnels ne peuvent pas faire la différence. Les résultats expérimentaux montrent que l'algorithme peut reproduire la coloration moléculaire du biomarqueur du cancer du sein HER2 en
secondes, un processus qui prend généralement au moins 24 heures dans un laboratoire d'histologie. Un groupe d'experts composé de trois pathologistes du sein a évalué ces images et les a jugées d'une qualité et d'une précision comparables à la coloration immunohistochimique traditionnelle.
Ozcan voit le potentiel de commercialiser la coloration virtuelle dans le développement de médicaments, mais il espère éliminer le besoin de colorants toxiques et d'équipements de coloration coûteux en histologie.
Recherche de cellules
Les chercheurs doivent observer
les cellules au microscope ou décrire les cellules une par unedans le logiciel. Morgan Schwartz, biologiste informatique au California Institute of Technology, cherche des moyens d'automatiser le traitement. À mesure que les ensembles de données d'imagerie deviennent de plus en plus volumineux, les méthodes manuelles traditionnelles se heurtent également à des goulots d'étranglement et certaines expériences
sont impossibles sans automatisation. .Analysez. Le conseiller diplômé de Schwartz, le bio-ingénieur David Van Valen, a créé un ensemble de modèles d'intelligence artificielle et les a publiés sur le site Web deepcell.org, qui peuvent être utilisés pour calculer et analyser les cellules et d'autres caractéristiques des cellules vivantes et des images de tissus enregistrées. .
Van Valen, en collaboration avec des collaborateurs tels que Noah Greenwald, biologiste du cancer à l'Université de Stanford, a également développé Mesmer, un modèle d'apprentissage profond qui peut
détecter rapidement et avec précision les cellules et les noyaux de différents types de tissus. Les chercheurs pourraient utiliser ces informations pour distinguer les tissus cancéreux des tissus non cancéreux et rechercher des différences avant et après le traitement, ou pour mieux comprendre pourquoi certains patients répondent ou ne répondent pas en fonction des changements d'imagerie, selon Greenwald. et déterminer les sous-types de tumeurs. Le projet Human Protein Atlas tire parti d'une autre application du deep learning : la localisation intracellulaire. Emma Lundberg, bio-ingénieure à l'Université de Stanford, a déclaré qu'au cours des dernières décennies, le projet a généré des millions d'images illustrant l'expression de protéines dans les cellules et les tissus humains. Au début, les participants au projet devaient annoter manuellement ces images, mais cette méthode n'était pas viable et Lundberg a commencé à demander l'aide d'algorithmes d'intelligence artificielle. Au cours des dernières années, elle a commencé à lancer des solutions de crowdsourcing dans le cadre du Kaggle Challenge. Des scientifiques et des passionnés d'intelligence artificielle réaliseront diverses tâches informatiques pour les prix. Les prix pour les deux projets s'élèvent respectivement à 37 000 dollars américains. et 25 000$. Les participants concevront des modèles d'apprentissage automatique supervisé et annoteront des images de cartes protéiques. Les résultats du défi Kaggle ont également surpris les membres du projet. Les performances du modèle gagnant sont environ 20 % supérieures à celles de la précédente classification multi-étiquettes des modèles de localisation des protéines de Lundberg, et peuvent être généralisées aux lignées cellulaires (cellules). line), a également réalisé de nouvelles percées industrielles dans la classification précise des protéines présentes dans plusieurs emplacements cellulaires.
Avec le modèle, les expériences biologiques peuvent continuer à progresser. La localisation des protéines humaines est importante car la même protéine se comporte différemment à différents endroits. Savoir si une protéine se trouve dans le noyau ou dans les mitochondries, cela aide. pour comprendre sa fonctionnalité. Mackenzie Mathis, neuroscientifique au Centre de biotechnologie du campus de l'École Polytechnique Fédérale de Lausanne en Suisse, s'intéresse depuis longtemps à la manière dont le cerveau détermine le comportement. À cette fin, elle a développé un programme appelé DeepLabCut qui permet aux neuroscientifiques de suivre les postures et les mouvements fins des animaux à partir de vidéos et de convertir les « vidéos de chats » et autres enregistrements d'animaux en données. DeepLabcut fournit une interface utilisateur graphique qui permet aux chercheurs de télécharger et d'annoter des vidéos et de former des modèles d'apprentissage en profondeur en un seul clic. En avril de cette année, l'équipe de Mathis a étendu le logiciel pour estimer les poses de plusieurs animaux simultanément, ce qui constitue un nouveau défi pour les humains et l'intelligence artificielle. En appliquant le modèle formé par DeepLabCut aux ouistitis, les chercheurs ont découvert que lorsque les animaux sont rapprochés, leurs corps s'alignent et regardent dans des directions similaires, et lorsqu'ils se séparent, ils ont tendance à se faire face. Les biologistes identifient les postures des animaux pour comprendre comment deux animaux interagissent, regardent ou observent le monde. Localisation des protéines
Suivi du comportement animal
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!