Maison > Périphériques technologiques > IA > La technologie de l'équité de l'intelligence artificielle a une grande importance pour sauver des vies

La technologie de l'équité de l'intelligence artificielle a une grande importance pour sauver des vies

WBOY
Libérer: 2023-04-13 16:07:06
avant
1000 Les gens l'ont consulté

Daphné Yao, professeur d'informatique à Virginia Tech, espère améliorer la précision prédictive des modèles d'apprentissage automatique dans les applications médicales. Des prédictions inexactes peuvent avoir des conséquences potentiellement mortelles. Ces erreurs de prédiction peuvent conduire à des erreurs de calcul quant à la probabilité qu'un patient décède ou survive à son cancer lors d'une visite aux urgences.

Ses conclusions ont été récemment publiées dans la revue Medical Communications, une revue dédiée à la publication de recherches, de revues et d'articles de haute qualité dans tous les domaines de la recherche clinique, translationnelle et en santé publique.

La technologie de l'équité de l'intelligence artificielle a une grande importance pour sauver des vies

Yao a déclaré que de nombreux ensembles de données cliniques sont déséquilibrés car ils sont dominés par des échantillons de population majoritaires. Dans le paradigme typique du modèle d’apprentissage automatique unique, les différences raciales et d’âge existent probablement, mais peuvent être ignorées.

Yao et son équipe de recherche ont collaboré avec Charles B. Nemeroff, membre de l'Académie nationale de médecine et professeur au Département de psychiatrie et des sciences du comportement de la Dell Medical School de l'Université du Texas à Austin, pour étudier le données de formation Comment les biais affectent les résultats de prédiction, en particulier pour les patients sous-représentés, tels que les patients plus jeunes ou les patients de couleur.

"Je suis extrêmement heureux de travailler avec Yao, qui est un leader mondial en apprentissage automatique avancé", a déclaré Nemeroff. "Elle et moi avons discuté d'un concept selon lequel les nouvelles avancées en apprentissage automatique pourraient être appliquées aux chercheurs cliniques. Un problème très important souvent rencontré est que le nombre de minorités qui participent habituellement aux essais cliniques est relativement faible

Cela conduit à tirer des conclusions médicales principalement pour le groupe majoritaire (patients blancs d’origine européenne May). ne s’applique pas aux groupes ethniques minoritaires.

Nemeroff a déclaré : "Ce nouveau rapport fournit un moyen d'améliorer l'exactitude des prédictions pour les groupes minoritaires." "De toute évidence, ces résultats ont des implications très importantes pour l'amélioration des soins cliniques pour les patients issus de minorités. "

Yao's L'équipe de Virginia Tech est composée des doctorants Sharmin Afrose et Wenjia Song du Département d'informatique et de Chang Lu, professeur Fred W. Bull du Département de génie chimique. Pour mener l'étude, ils ont mené des expériences sur quatre tâches pronostiques différentes sur deux ensembles de données, en utilisant une nouvelle méthode de correction de biais à double priorité (DP) pour former des modèles personnalisés pour des groupes ethniques ou d'âge spécifiques.

"Nos travaux démontrent une nouvelle technique d'équité de l'IA capable de corriger les erreurs de prédiction", a déclaré Song, un doctorant de quatrième année dont les domaines de recherche incluent l'apprentissage automatique dans la santé numérique et la cybersécurité. "Notre méthode DP améliore les performances dans les classes minoritaires jusqu'à 38 % et réduit considérablement les différences de prédiction entre les différents groupes démographiques, 88 % mieux que les autres méthodes d'échantillonnage." la tâche des taux de survie au cancer du sein et au cancer du poumon, tandis qu'Afrose, un doctorant de cinquième année, a utilisé l'ensemble de données du centre médical Beth Israel Deaconess à Boston pour la tâche de prévision de la mortalité à l'hôpital et de prévision de la décompensation.

« Nous sommes ravis d'avoir trouvé une solution pour réduire les biais », a déclaré Afrose, dont les recherches portent notamment sur l'apprentissage automatique dans les soins de santé et la sécurité des logiciels. "Notre technologie de correction des biais DP réduira les erreurs de prédiction potentiellement mortelles pour les groupes minoritaires."

Avec ces résultats désormais publiés et accessibles au public, l'équipe est impatiente de collaborer avec d'autres chercheurs sur leurs propres données cliniques. Ces méthodes ont été utilisées. dans l’analyse.

Song a déclaré : "Notre méthode est facilement déployée sur une variété de modèles d'apprentissage automatique et peut aider à améliorer les performances de toute tâche de pronostic avec biais de représentation

."

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:51cto.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal