Maison > Périphériques technologiques > IA > le corps du texte

Le score d'IA le plus élevé de l'histoire ! Le grand modèle de Google établit un nouveau record pour les questions des tests d'autorisation médicale aux États-Unis, et le niveau de connaissances scientifiques est comparable à celui des médecins humains.

PHPz
Libérer: 2023-04-18 16:49:03
avant
1107 Les gens l'ont consulté

Le score d'IA le plus élevé de l'histoire, le nouveau modèle de Google vient de réussir l'examen de vérification du permis médical aux États-Unis !

Et dans des tâches telles que les connaissances scientifiques, la compréhension, la récupération et les capacités de raisonnement, il rivalise directement avec le niveau des médecins humains. Dans certaines performances cliniques de questions et réponses, il a dépassé le modèle SOTA original de plus de 17 %.

Le score d'IA le plus élevé de l'histoire ! Le grand modèle de Google établit un nouveau record pour les questions des tests d'autorisation médicale aux États-Unis, et le niveau de connaissances scientifiques est comparable à celui des médecins humains.

Le score d'IA le plus élevé de l'histoire ! Le grand modèle de Google établit un nouveau record pour les questions des tests d'autorisation médicale aux États-Unis, et le niveau de connaissances scientifiques est comparable à celui des médecins humains.

Dès que ce développement est sorti, il a immédiatement suscité des discussions animées au sein de la communauté universitaire. De nombreuses personnes de l'industrie ont soupiré : Enfin, il est là.

Après avoir vu la comparaison entre Med-PaLM et les médecins humains, de nombreux internautes ont exprimé qu'ils attendaient déjà avec impatience la nomination de médecins IA.

Le score d'IA le plus élevé de l'histoire ! Le grand modèle de Google établit un nouveau record pour les questions des tests d'autorisation médicale aux États-Unis, et le niveau de connaissances scientifiques est comparable à celui des médecins humains.

Certaines personnes ont également ridiculisé l'exactitude de ce timing, qui coïncidait avec le fait que tout le monde pensait que Google « mourrait » à cause de ChatGPT.

Le score d'IA le plus élevé de l'histoire ! Le grand modèle de Google établit un nouveau record pour les questions des tests d'autorisation médicale aux États-Unis, et le niveau de connaissances scientifiques est comparable à celui des médecins humains.

Voyons de quel genre de recherche il s’agit ?

Le score d'IA le plus élevé de l'histoire

En raison de la nature professionnelle des soins médicaux, les modèles d'IA actuels dans ce domaine n'utilisent pas pleinement le langage dans une large mesure. Bien que ces modèles soient utiles, ils présentent des problèmes tels que la focalisation sur des systèmes à tâche unique (tels que la classification, la régression, la segmentation, etc.), le manque d'expressivité et de capacités interactives.

Les percées dans les grands modèles ont apporté de nouvelles possibilités aux soins médicaux IA+, mais en raison de la particularité de ce domaine, les préjudices potentiels, tels que la fourniture de fausses informations médicales, doivent encore être pris en compte.

Sur la base de ce contexte, les équipes de Google Research et DeepMind ont pris les questions-réponses médicales comme objet de recherche et ont apporté les contributions suivantes :

  • Proposé un référentiel de questions-réponses médicales MultiMedQA, comprenant les examens médicaux, la recherche médicale et les questions médicales des consommateurs ; PaLM et la variante affinée Flan-PaLM sur MultiMedQA 
  • Instruction proposée x ajustement pour intégrer davantage Flan-PaLM à la médecine, aboutissant à Med-PaLM.

Le score d'IA le plus élevé de l'histoire ! Le grand modèle de Google établit un nouveau record pour les questions des tests d'autorisation médicale aux États-Unis, et le niveau de connaissances scientifiques est comparable à celui des médecins humains. Ils estiment que la tâche consistant à « répondre aux questions médicales » est très difficile car pour fournir des réponses de haute qualité, l'IA doit comprendre le contexte médical, rappeler les connaissances médicales appropriées et raisonner à partir des informations d'experts.

Les critères d'évaluation existants se limitent souvent à évaluer l'exactitude de la classification ou les indicateurs de génération de langage naturel, mais ne peuvent pas fournir une analyse détaillée des applications cliniques réelles.

Tout d'abord, l'équipe a proposé un benchmark composé de 7 ensembles de données de questions-réponses médicales.

Comprend 6 ensembles de données existants, qui incluent également MedQA (USMLE, United States Medical Licensing Examination Questions), et introduit également leur propre nouvel ensemble de données HealthSearchQA, qui consiste en des questions de santé recherchées.

Le score d'IA le plus élevé de l'histoire ! Le grand modèle de Google établit un nouveau record pour les questions des tests d'autorisation médicale aux États-Unis, et le niveau de connaissances scientifiques est comparable à celui des médecins humains.Cela inclut les examens médicaux, la recherche médicale et les questions de médecine de consommation.

Ensuite, l'équipe a utilisé MultiMedQA pour évaluer PaLM (540 milliards de paramètres) et la variante Flan-PaLM avec des instructions affinées. Par exemple, en augmentant le nombre de tâches, la taille du modèle et la stratégie d'utilisation des données de la chaîne de réflexion.

FLAN est un réseau linguistique affiné proposé par Google Research l'année dernière. Il affine le modèle pour le rendre plus adapté aux tâches générales de PNL et utilise des ajustements d'instructions pour entraîner le modèle.

Il a été constaté que Flan-PaLM atteignait des performances optimales sur plusieurs benchmarks, tels que MedQA, MedMCQA, PubMedQA et MMLU. En particulier, l’ensemble de données MedQA (USMLE) a surpassé de plus de 17 % le modèle SOTA précédent.

Le score d'IA le plus élevé de l'histoire ! Le grand modèle de Google établit un nouveau record pour les questions des tests d'autorisation médicale aux États-Unis, et le niveau de connaissances scientifiques est comparable à celui des médecins humains.Dans cette étude, trois variantes de modèles PaLM et Flan-PaLM de différentes tailles ont été considérées : 8 milliards de paramètres, 62 milliards de paramètres et 540 milliards de paramètres.

Cependant, Flan-PaLM présente encore certaines limites et ne répond pas bien aux problèmes médicaux des consommateurs.

Afin de résoudre ce problème et de rendre Flan-PaLM plus adapté au domaine médical, ils ont ajusté les instructions, aboutissant au modèle Med-PaLM.

Le score d'IA le plus élevé de l'histoire ! Le grand modèle de Google établit un nouveau record pour les questions des tests d'autorisation médicale aux États-Unis, et le niveau de connaissances scientifiques est comparable à celui des médecins humains.△Exemple : Combien de temps faut-il pour qu'un ictère néonatal disparaisse ?

L'équipe a d'abord sélectionné au hasard quelques exemples dans l'ensemble de données à réponses gratuites MultiMedQA (HealthSearchQA, MedicationQA, LiveQA).

Demandez ensuite à l'équipe de cliniciens composée de 5 personnes de fournir des réponses modèles. Ces cliniciens sont situés aux États-Unis et au Royaume-Uni et possèdent une expertise en soins primaires, chirurgie, médecine interne et pédiatrie. Enfin, 40 exemples ont été laissés dans HealthSearchQA, MedicationQA et LiveQA pour la formation au réglage rapide des instructions.

Le score d'IA le plus élevé de l'histoire ! Le grand modèle de Google établit un nouveau record pour les questions des tests d'autorisation médicale aux États-Unis, et le niveau de connaissances scientifiques est comparable à celui des médecins humains.Les tâches multiples sont proches du niveau des médecins humains

Afin de vérifier l'effet final de Med-PaLM, les chercheurs ont extrait 140 questions médicales des consommateurs du MultiMedQA mentionné ci-dessus.

100 d'entre eux proviennent de l'ensemble de données HealthSearchQA, 20 de l'ensemble de données LiveQA et 20 de l'ensemble de données MedicationQA.

Il convient de mentionner que cela n'inclut pas les problèmes initialement utilisés pour ajuster les invites d'instructions afin de générer Med-PaLM.

Ils ont demandé à Flan-PaLM et Med-PaLM de générer respectivement des réponses à ces 140 questions et ont invité un groupe de cliniciens professionnels à y répondre.

Prenons l'image ci-dessous comme exemple. Lorsqu'on lui demande « Que signifie une douleur sévère à l'oreille ? », Med-PaLM énumérera non seulement les maladies dont le patient peut être infecté, mais vous recommandera également de consulter un médecin si vous en souffrez. présentent les symptômes suivants.

La douleur à l'oreille peut être le signe de plusieurs affections sous-jacentes, notamment : une infection de l'oreille moyenne (otite moyenne), une infection de l'oreille externe (infection de l'oreille) et une impaction de cérumen. Cela peut également être le signe d’une maladie plus grave, comme une tumeur cérébrale ou un accident vasculaire cérébral.

Si vous ressentez une douleur intense à l'oreille qui dure plus de quelques jours, ou si vous présentez d'autres symptômes qui accompagnent la douleur à l'oreille, tels que des étourdissements, de la fièvre, une faiblesse du visage ou un engourdissement, vous devriez consulter votre médecin pour une évaluation. Un médecin peut déterminer la cause de la douleur et proposer un traitement approprié.

Le score d'IA le plus élevé de l'histoire ! Le grand modèle de Google établit un nouveau record pour les questions des tests d'autorisation médicale aux États-Unis, et le niveau de connaissances scientifiques est comparable à celui des médecins humains.

De cette manière, les chercheurs ont donné anonymement ces trois séries de réponses à 9 cliniciens des États-Unis, du Royaume-Uni et de l'Inde pour évaluation.

Les résultats montrent qu'en termes de bon sens scientifique, Med-PaLM et les médecins humains ont un taux d'exactitude de plus de 92 %, tandis que le chiffre correspondant pour Flan-PaLM est de 61,9 %.

Le score d'IA le plus élevé de l'histoire ! Le grand modèle de Google établit un nouveau record pour les questions des tests d'autorisation médicale aux États-Unis, et le niveau de connaissances scientifiques est comparable à celui des médecins humains.

En général, Med-PaLM a presque atteint le niveau des médecins humains en termes de capacités de compréhension, de récupération et de raisonnement, avec presque la même différence entre les deux, tandis que Flan-PaLM a également performé au plus bas.

Le score d'IA le plus élevé de l'histoire ! Le grand modèle de Google établit un nouveau record pour les questions des tests d'autorisation médicale aux États-Unis, et le niveau de connaissances scientifiques est comparable à celui des médecins humains.

En termes d'exhaustivité des réponses, bien que les réponses de Flan-PaLM soient considérées comme ayant manqué 47,2% d'informations importantes, les réponses de Med-PaLM se sont considérablement améliorées, avec seulement 15,1% des réponses étant considérées comme manquant d'informations. Réduire encore la distance avec les médecins humains.

Le score d'IA le plus élevé de l'histoire ! Le grand modèle de Google établit un nouveau record pour les questions des tests d'autorisation médicale aux États-Unis, et le niveau de connaissances scientifiques est comparable à celui des médecins humains.

Cependant, bien qu'il y ait moins d'informations manquantes, les réponses plus longues signifient également un risque accru d'introduction de contenu incorrect. La proportion de contenu incorrect dans les réponses de Med-PaLM a atteint 18,7 %, la plus élevée des trois.

Le score d'IA le plus élevé de l'histoire ! Le grand modèle de Google établit un nouveau record pour les questions des tests d'autorisation médicale aux États-Unis, et le niveau de connaissances scientifiques est comparable à celui des médecins humains.

En tenant compte du risque potentiel des réponses, 29,7 % des réponses de Flan-PaLM ont été considérées comme potentiellement dangereuses ; le chiffre pour Med-PaLM est tombé à 5,9 %, et le plus bas pour les médecins humains était de 5,7 %.

Le score d'IA le plus élevé de l'histoire ! Le grand modèle de Google établit un nouveau record pour les questions des tests d'autorisation médicale aux États-Unis, et le niveau de connaissances scientifiques est comparable à celui des médecins humains.

De plus, Med-PaLM a surpassé les médecins humains en termes de biais démographique médical, avec seulement 0,8 % des réponses de Med-PaLM étant biaisées, par rapport aux humains. C'était 1,4 % pour les médecins et 7,9 % pour Flan-PaLM.

Le score d'IA le plus élevé de l'histoire ! Le grand modèle de Google établit un nouveau record pour les questions des tests d'autorisation médicale aux États-Unis, et le niveau de connaissances scientifiques est comparable à celui des médecins humains.

Enfin, les chercheurs ont également invité 5 utilisateurs non professionnels à évaluer le caractère pratique de ces trois ensembles de réponses. Seulement 60,6 % des réponses de Flan-PaLM ont été considérées comme utiles, ce chiffre est passé à 80,3 % pour Med-PaLM et le plus élevé était de 91,1 % pour les médecins humains.

Le score d'IA le plus élevé de l'histoire ! Le grand modèle de Google établit un nouveau record pour les questions des tests d'autorisation médicale aux États-Unis, et le niveau de connaissances scientifiques est comparable à celui des médecins humains.

En résumant toutes les évaluations ci-dessus, on peut voir que l'ajustement des invites de commande a un effet significatif sur l'amélioration des performances dans 140 problèmes médicaux grand public, les performances de Med-PaLM ont presque rattrapé le niveau des médecins humains.

L'équipe derrière

L'équipe de recherche de cet article vient de Google et DeepMind.

Le score d'IA le plus élevé de l'histoire ! Le grand modèle de Google établit un nouveau record pour les questions des tests d'autorisation médicale aux États-Unis, et le niveau de connaissances scientifiques est comparable à celui des médecins humains.

Après que Google Health ait été exposé à des licenciements et à des réorganisations à grande échelle l'année dernière, cela peut être considéré comme son lancement majeur dans le domaine médical.

Même Jeff Dean, le responsable de Google AI, est venu exprimer sa forte recommandation !

Le score d'IA le plus élevé de l'histoire ! Le grand modèle de Google établit un nouveau record pour les questions des tests d'autorisation médicale aux États-Unis, et le niveau de connaissances scientifiques est comparable à celui des médecins humains.

Certaines personnes de l'industrie l'ont également loué après l'avoir lu :

La connaissance clinique est un domaine complexe qui n'a souvent pas de bonne réponse évidente, et qui nécessite également un dialogue avec les patients.

Cette fois, le nouveau modèle de Google DeepMind est une application parfaite du LLM.

Le score d'IA le plus élevé de l'histoire ! Le grand modèle de Google établit un nouveau record pour les questions des tests d'autorisation médicale aux États-Unis, et le niveau de connaissances scientifiques est comparable à celui des médecins humains.

Il est à noter qu'une autre équipe vient de passer l'USMLE il y a quelques temps.

Le score d'IA le plus élevé de l'histoire ! Le grand modèle de Google établit un nouveau record pour les questions des tests d'autorisation médicale aux États-Unis, et le niveau de connaissances scientifiques est comparable à celui des médecins humains.

En revenant en arrière, une vague de grands modèles tels que PubMed GPT, DRAGON et Meta's Galactica a émergé cette année, et ils ont établi à plusieurs reprises de nouveaux records aux examens professionnels.

Le score d'IA le plus élevé de l'histoire ! Le grand modèle de Google établit un nouveau record pour les questions des tests d'autorisation médicale aux États-Unis, et le niveau de connaissances scientifiques est comparable à celui des médecins humains.

L’IA médicale est si prospère qu’il est difficile d’imaginer que l’année dernière ce fut une mauvaise nouvelle. À cette époque, l’activité innovante de Google liée à l’IA médicale n’avait jamais démarré.

En juin de l'année dernière, le média américain BI a révélé qu'elle était en crise et avait dû subir des licenciements et une réorganisation à grande échelle. Lorsque le département Google Health a été créé en novembre 2018, il était très prospère.

Il n’y a pas que Google. Les activités d’IA médicale d’autres entreprises technologiques bien connues ont également connu des restructurations et des acquisitions.

Après avoir lu le grand modèle médical publié par Google DeepMind, êtes-vous optimiste quant au développement de l'IA médicale ?

Adresse papier : https://arxiv.org/abs/2212.13138

Lien de référence : https://twitter.com/vivnat/status/1607609299894947841

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:51cto.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal