Maison > Périphériques technologiques > IA > Faut-il un code de conduite pour l'intelligence artificielle dans les soins de santé ?

Faut-il un code de conduite pour l'intelligence artificielle dans les soins de santé ?

王林
Libérer: 2023-05-31 12:53:19
avant
1227 Les gens l'ont consulté

L'essor de l'IA générative a incité un éthicien de l'IA à proposer un cadre pour réduire les risques liés à l'utilisation de cette technologie en évolution dans les soins de santé. Dans le même temps, le PDG d’OpenAI de ChatGPT a également exhorté les législateurs américains à commencer à réglementer l’intelligence artificielle pour garantir la sécurité humaine.

Faut-il un code de conduite pour lintelligence artificielle dans les soins de santé ?

Ci-dessus : L’essor de l’intelligence artificielle générative a suscité des appels à l’introduction d’un cadre pour réglementer son utilisation dans les soins de santé.

L'écrivain de science-fiction Isaac Asimov a proposé ses trois lois de la robotique dans la nouvelle "Runaround" de 1942. Il est décédé en 1992, bien avant d’assister à l’essor de l’intelligence artificielle générative ces dernières années.

L'IA générative comprend des algorithmes tels que ChatGPT ou DALL-E, qui peuvent utiliser des données entraînées pour créer de nouveaux contenus, notamment du texte, des images, de l'audio, de la vidéo et du code informatique. Les grands modèles linguistiques (LLM) sont un élément clé de l'intelligence artificielle générative, des réseaux de neurones formés sur de grandes quantités de texte non étiqueté à l'aide d'un apprentissage auto-supervisé ou semi-supervisé.

Actuellement, les capacités de l’intelligence artificielle générative connaissent une croissance exponentielle. Dans le domaine des soins de santé, il a été utilisé pour prédire les résultats des patients en apprenant à partir de vastes ensembles de données sur les patients, diagnostiquer des maladies rares avec une précision incroyable et réussir l'examen de licence médicale des États-Unis sans apprentissage préalable.

Le potentiel de l'IA à entrer dans les soins de santé et à remplacer les médecins, les infirmières et autres professionnels de la santé a incité l'éthicien de l'IA Stefan Harrer à proposer un cadre pour l'utilisation de l'IA générative en médecine.

Haller est directeur de l'innovation du Digital Health Collaborative Research Center (DHCRC) et membre du Consortium for Health Artificial Intelligence (CHAI). Le problème de l’utilisation de l’IA générative, a-t-il déclaré, est sa capacité à générer des contenus convaincants faux, inappropriés ou dangereux.

Stephen Haller a déclaré : « L’essence d’une récupération efficace des connaissances est de poser les bonnes questions, et l’art de la pensée critique dépend de la capacité de chacun à explorer les réponses en évaluant la validité des modèles du monde qui sont incapables d’accomplir ces missions. »

Haller estime que l’IA générative a le potentiel de transformer les soins de santé, mais ce n’est pas encore le cas. À cette fin, il a recommandé l'introduction d'un cadre réglementaire fondé sur l'éthique contenant 10 principes qui, selon lui, pourraient atténuer les risques posés par l'IA générative dans les soins de santé :

  1. Concevoir l'IA comme un outil auxiliaire qui augmente les décideurs humains, mais ne les remplace pas.
  2. Concevez l'IA pour produire des mesures sur les performances, l'utilisation et l'impact, expliquez quand et comment utiliser l'IA pour aider à la prise de décision et recherchez les biais potentiels.
  3. Concevoir une intelligence artificielle basée sur et adhérant au système de valeurs du groupe d'utilisateurs cible.
  4. Annoncez le but et l'utilisation de l'IA dès le début du travail de conception ou de développement.
  5. Exposez toutes les sources de données utilisées pour entraîner l'intelligence artificielle.
  6. Concevez l'IA pour étiqueter de manière claire et transparente le contenu généré par l'IA.
  7. Auditez régulièrement l’IA par rapport aux normes de confidentialité, de sécurité et de performance des données.
  8. Enregistrez et partagez les résultats d'audit, informez les utilisateurs sur les capacités, les limites et les risques de l'IA, et améliorez les performances de l'IA en recyclant et en mettant à jour les algorithmes.
  9. Veiller à ce que des normes de travail équitables et sécuritaires soient appliquées lors de l’embauche du personnel de développement de la main-d’œuvre.
  10. Établissez un précédent juridique qui définit clairement quand les données peuvent être utilisées pour la formation en IA et établissez un cadre de droit d'auteur, de responsabilité et d'imputabilité pour régir les données de formation, le contenu généré par l'IA et l'impact des décisions humaines prises à l'aide de ces données.

Fait intéressant, le cadre de Stephen Haller coïncide avec les appels de Sam Altman, PDG d’Open AI de ChatGPT, qui a appelé les législateurs américains à introduire une réglementation gouvernementale pour empêcher l’IA d’affecter les risques potentiels posés aux humains. Sam Altman, cofondateur d'OpenAI en 2015 avec le soutien d'Elon Musk, a suggéré que les gouvernements introduisent des exigences en matière de licences et de tests avant de publier des modèles d'IA plus puissants.

En Europe, le projet de loi sur l'intelligence artificielle sera voté au Parlement européen le mois prochain. Si elle est adoptée, la législation pourrait interdire la surveillance biométrique, la reconnaissance des émotions et certains systèmes d’intelligence artificielle utilisés par la police.

Le cadre plutôt général de Stephen Haller peut être appliqué à de nombreux lieux de travail où il existe un risque que l’IA remplace les humains. Cela semble arriver à un moment où les gens (même ceux responsables de la création de la technologie) appellent à une pause dans le monde de l’intelligence artificielle.

L'industrie médicale est-elle confrontée à des risques plus importants que les autres secteurs d'emploi ? Un tel cadre est-il bénéfique ? Plus important encore, compte tenu de la vitesse à laquelle l’IA se développe, réduira-t-elle réellement les risques ? Peut-être que seul le temps nous apportera les réponses à ces questions.

Si vos amis l'aiment, faites attention à « Connaître les nouveautés » !

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:sohu.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal