Table des matières
Maîtrise des données basée sur l'apprentissage automatique
Clinical Golden Record
Maison Périphériques technologiques IA Comment l'apprentissage automatique pourrait faire économiser des millions de dollars aux opérations d'essais cliniques

Comment l'apprentissage automatique pourrait faire économiser des millions de dollars aux opérations d'essais cliniques

Apr 12, 2023 pm 03:19 PM
机器学习 自动化 临床试验

​En tant que grand fournisseur de services d’essais cliniques, WCG exerce une influence considérable sur le marché de nombreux médicaments et dispositifs médicaux. Mais en tant que groupe de plus de 30 sociétés autrefois indépendantes, il est difficile d'obtenir des données cohérentes pour prendre en charge ces services. C'est là que les solutions de maîtrise des données de Tamr sont utiles.

Comment l'apprentissage automatique pourrait faire économiser des millions de dollars aux opérations d'essais cliniques

En tant qu'organisation de services cliniques, WCG gère tous les aspects des essais cliniques pour le compte des sociétés pharmaceutiques et des fabricants d'appareils, des ressources humaines et informatiques à l'engagement des patients et à l'examen éthique, pour des géants pharmaceutiques comme Merck et Roche, ainsi que des milliers de personnes. of Fournit des services essentiels aux petites et moyennes startups pharmaceutiques et aux groupes de recherche cherchant l'approbation réglementaire pour de nouveaux médicaments et dispositifs.

Le seul service que l’entreprise ne fournit pas est la réalisation d’essais réels. "Nous ne faisons pas cela", a déclaré Art Morales, directeur de la technologie et responsable des données de l'entreprise.

Au cours de la dernière décennie, WCG a établi une niche rentable dans le secteur des essais cliniques grâce à l'acquisition de 35 sociétés. Chaque entreprise, dont certaines ont plus de 50 ans, est spécialisée dans certains aspects du processus des essais cliniques. Ces entreprises développent leurs propres applications logicielles personnalisées pour automatiser leurs différents processus commerciaux, constituant ainsi une source de propriété intellectuelle très précieuse.

Avoir différents systèmes est logique du point de vue de chaque entreprise, mais cela pose un défi pour WCG, qui souhaite maintenir une vue cohérente de toutes les opérations des filiales.

L'entreprise a d'abord tenté de résoudre manuellement le problème d'incohérence des données. Une équipe d'environ cinq à dix personnes a travaillé pendant deux ans pour éliminer les fautes de frappe, les entrées en double et autres erreurs de données dans les systèmes disparates utilisés par 35 filiales. Les données nettoyées et standardisées sont stockées dans l'entrepôt de données WCG exécuté dans le cloud, où elles peuvent être analysées à l'aide de divers moteurs d'analyse puissants.

« L’une des grandes questions que nous nous posons est la suivante : comment déterminer qu’un « nœud » est le même « nœud » dans différentes organisations, a expliqué Morales ? "Dans certains systèmes, il peut y avoir ou non une adresse, ou l'adresse peut ne pas être orthographiée correctement. Certaines données peuvent simplement manquer, et il y a vraiment beaucoup d'incertitude

En raison de cette incertitude et de la nécessité de faire des recherches." décisions une par une Déterminé, le processus de maîtrise manuelle des données est fastidieux et prend du temps. L’entreprise a dépensé des millions de dollars pour maîtriser les données, mais celles-ci présentaient encore des incohérences.

Morales a réalisé qu'il devait y avoir une meilleure façon. Il a entendu parler de Tamr, un outil de maîtrise des données qui utilise l'apprentissage automatique pour identifier automatiquement les entités connues dans de grands ensembles de données.

Maîtrise des données basée sur l'apprentissage automatique

Tamr est un outil de qualité des données né il y a huit ans et issu de recherches académiques menées par Mike Stonebraker, célèbre informaticien du MIT.

Selon Anthony Deighton, ancien cadre de longue date de Qlik et aujourd'hui directeur des produits de Tamr, Stonebraker estime que l'apprentissage automatique est nécessaire pour résoudre les problèmes de qualité des données de longue date qui se posent à l'échelle du Big Data et qui vont s'intensifier.

Depuis de nombreuses années, la solution prescrite à ce dilemme est un projet de Master Data Management (MDM). Au lieu de s'appuyer sur chaque système individuel pour s'assurer que tout est correct, les systèmes de données individuels auront des pointeurs vers des copies connues des données – des « enregistrements dorés », pour ainsi dire.

L’approche du Golden Record peut résoudre le problème, du moins c’est ce qu’ils pensent. Cependant, les plans les mieux conçus risquent de se transformer en poussière une fois confrontés à la réalité. C’est exactement ce qui se passe avec le MDM traditionnel.

S'appuyer sur les humains pour nettoyer et gérer les données est futile. Cela ne fonctionnera pas.

L’idée de Stonebraker sur ce problème est d’utiliser l’apprentissage automatique pour classer les données, tout comme Google a utilisé l’apprentissage automatique pour classer automatiquement les sites Web au début d’Internet, mettant ainsi en échec les efforts de Yahoo pour organiser manuellement Internet.

En entraînant des machines à reconnaître les entités dans les systèmes d'entreprise, Tamr a trouvé un moyen de créer automatiquement des records dorés. L’une des principales conclusions auxquelles l’équipe est parvenue était que lorsqu’on demandait aux gens de confirmer la cohérence avec un ensemble limité d’options, ils obtenaient de bien meilleurs résultats que lorsqu’on leur présentait simultanément des dizaines ou des centaines d’options.

Clinical Golden Record

L’essai Tamr du WCG commence en mai 2021. Après une période de formation, le logiciel Tamr observe et apprend comment les employés gèrent les différences de données.

Une équipe de WCG a travaillé avec Tamr pour examiner et nettoyer toutes les sources de données de l'entrepôt de données. Le logiciel identifie les « clusters », deux termes ou plus qui signifient la même chose dans différentes applications, et les charge en tant qu'enregistrements dorés dans l'entrepôt de données cloud de WCG.

Chaque source de données est exécutée via Tamr avant de charger les données dans l'entrepôt de données. La taille des sources de données varie d'environ 50 000 enregistrements à plus d'un million d'enregistrements, et chaque entité peut comporter environ 200 colonnes. Le problème n’est pas la quantité mais la complexité. En plus d'accélérer le processus de maîtrise des données d'environ 4 fois, les outils Tamr produisent des données plus standardisées, ce qui signifie une plus grande clarté pour les opérations commerciales.

« Lorsque vous nettoyez les données, vous pouvez désormais utiliser des données plus propres pour obtenir de meilleures informations opérationnelles », a déclaré Morales. "Nous pouvons faire la correspondance via Salesforce et nos applications pour savoir que ce sont les bonnes choses. Avant, si les données n'étaient pas nettoyées, vous obteniez une correspondance à 50 pour cent. Maintenant, nous pouvons faire correspondre 80 pour cent. Ainsi, en utilisant ce que nous faisons, les choses ont des avantages opérationnels très clairs. "

Tamr ne peut pas réussir à regrouper toutes les entités dans des clusters, il existe encore des cas extrêmes qui nécessitent une expertise humaine. Dans ces cas-là, le logiciel fait savoir à l’opérateur qu’il a peu confiance dans la correspondance. Mais selon Morales, Tamr est très doué pour trouver des correspondances évidentes. Il a déclaré que le taux d’exactitude était d’environ 95 % dès le premier jour.

« Vous devez accepter que dans tout projet de maîtrise des données, il y aura des inadéquations. Il y aura des erreurs de type I et de type II », a-t-il déclaré. "Ce serait bien si vous pouviez retracer la source de ces erreurs depuis... parce que les humains font les mêmes erreurs."

De plus, Tamr aide WCG à mieux comprendre ses données.

Morales a déclaré que l’approche manuelle de l’entreprise en matière de maîtrise des données a coûté des millions de dollars au total, tandis que le coût de Tamr était inférieur à 1 million de dollars. Les améliorations de la qualité des données sont plus difficiles à quantifier, mais sans doute plus importantes.


Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

AI Hentai Generator

AI Hentai Generator

Générez AI Hentai gratuitement.

Article chaud

R.E.P.O. Crystals d'énergie expliqués et ce qu'ils font (cristal jaune)
2 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
Repo: Comment relancer ses coéquipiers
1 Il y a quelques mois By 尊渡假赌尊渡假赌尊渡假赌
Hello Kitty Island Adventure: Comment obtenir des graines géantes
4 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
Combien de temps faut-il pour battre Split Fiction?
3 Il y a quelques semaines By DDD

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Cet article vous amènera à comprendre SHAP : explication du modèle pour l'apprentissage automatique Cet article vous amènera à comprendre SHAP : explication du modèle pour l'apprentissage automatique Jun 01, 2024 am 10:58 AM

Dans les domaines de l’apprentissage automatique et de la science des données, l’interprétabilité des modèles a toujours été au centre des préoccupations des chercheurs et des praticiens. Avec l'application généralisée de modèles complexes tels que l'apprentissage profond et les méthodes d'ensemble, la compréhension du processus décisionnel du modèle est devenue particulièrement importante. Explainable AI|XAI contribue à renforcer la confiance dans les modèles d'apprentissage automatique en augmentant la transparence du modèle. L'amélioration de la transparence des modèles peut être obtenue grâce à des méthodes telles que l'utilisation généralisée de plusieurs modèles complexes, ainsi que les processus décisionnels utilisés pour expliquer les modèles. Ces méthodes incluent l'analyse de l'importance des caractéristiques, l'estimation de l'intervalle de prédiction du modèle, les algorithmes d'interprétabilité locale, etc. L'analyse de l'importance des fonctionnalités peut expliquer le processus de prise de décision du modèle en évaluant le degré d'influence du modèle sur les fonctionnalités d'entrée. Estimation de l’intervalle de prédiction du modèle

Transparent! Une analyse approfondie des principes des principaux modèles de machine learning ! Transparent! Une analyse approfondie des principes des principaux modèles de machine learning ! Apr 12, 2024 pm 05:55 PM

En termes simples, un modèle d’apprentissage automatique est une fonction mathématique qui mappe les données d’entrée à une sortie prédite. Plus précisément, un modèle d'apprentissage automatique est une fonction mathématique qui ajuste les paramètres du modèle en apprenant à partir des données d'entraînement afin de minimiser l'erreur entre la sortie prédite et la véritable étiquette. Il existe de nombreux modèles dans l'apprentissage automatique, tels que les modèles de régression logistique, les modèles d'arbre de décision, les modèles de machines à vecteurs de support, etc. Chaque modèle a ses types de données et ses types de problèmes applicables. Dans le même temps, il existe de nombreux points communs entre les différents modèles, ou il existe une voie cachée pour l’évolution du modèle. En prenant comme exemple le perceptron connexionniste, en augmentant le nombre de couches cachées du perceptron, nous pouvons le transformer en un réseau neuronal profond. Si une fonction noyau est ajoutée au perceptron, elle peut être convertie en SVM. celui-ci

Identifier le surapprentissage et le sous-apprentissage grâce à des courbes d'apprentissage Identifier le surapprentissage et le sous-apprentissage grâce à des courbes d'apprentissage Apr 29, 2024 pm 06:50 PM

Cet article présentera comment identifier efficacement le surajustement et le sous-apprentissage dans les modèles d'apprentissage automatique grâce à des courbes d'apprentissage. Sous-ajustement et surajustement 1. Surajustement Si un modèle est surentraîné sur les données de sorte qu'il en tire du bruit, alors on dit que le modèle est en surajustement. Un modèle surajusté apprend chaque exemple si parfaitement qu'il classera mal un exemple inédit/inédit. Pour un modèle surajusté, nous obtiendrons un score d'ensemble d'entraînement parfait/presque parfait et un score d'ensemble/test de validation épouvantable. Légèrement modifié : "Cause du surajustement : utilisez un modèle complexe pour résoudre un problème simple et extraire le bruit des données. Parce qu'un petit ensemble de données en tant qu'ensemble d'entraînement peut ne pas représenter la représentation correcte de toutes les données."

L'évolution de l'intelligence artificielle dans l'exploration spatiale et l'ingénierie des établissements humains L'évolution de l'intelligence artificielle dans l'exploration spatiale et l'ingénierie des établissements humains Apr 29, 2024 pm 03:25 PM

Dans les années 1950, l’intelligence artificielle (IA) est née. C’est à ce moment-là que les chercheurs ont découvert que les machines pouvaient effectuer des tâches similaires à celles des humains, comme penser. Plus tard, dans les années 1960, le Département américain de la Défense a financé l’intelligence artificielle et créé des laboratoires pour poursuivre son développement. Les chercheurs trouvent des applications à l’intelligence artificielle dans de nombreux domaines, comme l’exploration spatiale et la survie dans des environnements extrêmes. L'exploration spatiale est l'étude de l'univers, qui couvre l'ensemble de l'univers au-delà de la terre. L’espace est classé comme environnement extrême car ses conditions sont différentes de celles de la Terre. Pour survivre dans l’espace, de nombreux facteurs doivent être pris en compte et des précautions doivent être prises. Les scientifiques et les chercheurs pensent qu'explorer l'espace et comprendre l'état actuel de tout peut aider à comprendre le fonctionnement de l'univers et à se préparer à d'éventuelles crises environnementales.

Implémentation d'algorithmes d'apprentissage automatique en C++ : défis et solutions courants Implémentation d'algorithmes d'apprentissage automatique en C++ : défis et solutions courants Jun 03, 2024 pm 01:25 PM

Les défis courants rencontrés par les algorithmes d'apprentissage automatique en C++ incluent la gestion de la mémoire, le multithread, l'optimisation des performances et la maintenabilité. Les solutions incluent l'utilisation de pointeurs intelligents, de bibliothèques de threads modernes, d'instructions SIMD et de bibliothèques tierces, ainsi que le respect des directives de style de codage et l'utilisation d'outils d'automatisation. Des cas pratiques montrent comment utiliser la bibliothèque Eigen pour implémenter des algorithmes de régression linéaire, gérer efficacement la mémoire et utiliser des opérations matricielles hautes performances.

IA explicable : Expliquer les modèles IA/ML complexes IA explicable : Expliquer les modèles IA/ML complexes Jun 03, 2024 pm 10:08 PM

Traducteur | Revu par Li Rui | Chonglou Les modèles d'intelligence artificielle (IA) et d'apprentissage automatique (ML) deviennent aujourd'hui de plus en plus complexes, et le résultat produit par ces modèles est une boîte noire – impossible à expliquer aux parties prenantes. L'IA explicable (XAI) vise à résoudre ce problème en permettant aux parties prenantes de comprendre comment fonctionnent ces modèles, en s'assurant qu'elles comprennent comment ces modèles prennent réellement des décisions et en garantissant la transparence des systèmes d'IA, la confiance et la responsabilité pour résoudre ce problème. Cet article explore diverses techniques d'intelligence artificielle explicable (XAI) pour illustrer leurs principes sous-jacents. Plusieurs raisons pour lesquelles l’IA explicable est cruciale Confiance et transparence : pour que les systèmes d’IA soient largement acceptés et fiables, les utilisateurs doivent comprendre comment les décisions sont prises

Perspectives sur les tendances futures de la technologie Golang dans l'apprentissage automatique Perspectives sur les tendances futures de la technologie Golang dans l'apprentissage automatique May 08, 2024 am 10:15 AM

Le potentiel d'application du langage Go dans le domaine de l'apprentissage automatique est énorme. Ses avantages sont les suivants : Concurrence : il prend en charge la programmation parallèle et convient aux opérations intensives en calcul dans les tâches d'apprentissage automatique. Efficacité : les fonctionnalités du garbage collector et du langage garantissent l’efficacité du code, même lors du traitement de grands ensembles de données. Facilité d'utilisation : la syntaxe est concise, ce qui facilite l'apprentissage et l'écriture d'applications d'apprentissage automatique.

Flash Attention est-il stable ? Meta et Harvard ont constaté que les écarts de poids de leur modèle fluctuaient de plusieurs ordres de grandeur. Flash Attention est-il stable ? Meta et Harvard ont constaté que les écarts de poids de leur modèle fluctuaient de plusieurs ordres de grandeur. May 30, 2024 pm 01:24 PM

MetaFAIR s'est associé à Harvard pour fournir un nouveau cadre de recherche permettant d'optimiser le biais de données généré lors de l'apprentissage automatique à grande échelle. On sait que la formation de grands modèles de langage prend souvent des mois et utilise des centaines, voire des milliers de GPU. En prenant comme exemple le modèle LLaMA270B, sa formation nécessite un total de 1 720 320 heures GPU. La formation de grands modèles présente des défis systémiques uniques en raison de l’ampleur et de la complexité de ces charges de travail. Récemment, de nombreuses institutions ont signalé une instabilité dans le processus de formation lors de la formation des modèles d'IA générative SOTA. Elles apparaissent généralement sous la forme de pics de pertes. Par exemple, le modèle PaLM de Google a connu jusqu'à 20 pics de pertes au cours du processus de formation. Le biais numérique est à l'origine de cette imprécision de la formation,

See all articles