L'essor de l'IA générative a incité un éthicien de l'IA à proposer un cadre pour réduire les risques liés à l'utilisation de cette technologie en évolution dans les soins de santé. Dans le même temps, le PDG d’OpenAI de ChatGPT a également exhorté les législateurs américains à commencer à réglementer l’intelligence artificielle pour garantir la sécurité humaine.
Ci-dessus : L’essor de l’intelligence artificielle générative a suscité des appels à l’introduction d’un cadre pour réglementer son utilisation dans les soins de santé.
L'écrivain de science-fiction Isaac Asimov a proposé ses trois lois de la robotique dans la nouvelle "Runaround" de 1942. Il est décédé en 1992, bien avant d’assister à l’essor de l’intelligence artificielle générative ces dernières années.
L'IA générative comprend des algorithmes tels que ChatGPT ou DALL-E, qui peuvent utiliser des données entraînées pour créer de nouveaux contenus, notamment du texte, des images, de l'audio, de la vidéo et du code informatique. Les grands modèles linguistiques (LLM) sont un élément clé de l'intelligence artificielle générative, des réseaux de neurones formés sur de grandes quantités de texte non étiqueté à l'aide d'un apprentissage auto-supervisé ou semi-supervisé.
Actuellement, les capacités de l’intelligence artificielle générative connaissent une croissance exponentielle. Dans le domaine des soins de santé, il a été utilisé pour prédire les résultats des patients en apprenant à partir de vastes ensembles de données sur les patients, diagnostiquer des maladies rares avec une précision incroyable et réussir l'examen de licence médicale des États-Unis sans apprentissage préalable.
Le potentiel de l'IA à entrer dans les soins de santé et à remplacer les médecins, les infirmières et autres professionnels de la santé a incité l'éthicien de l'IA Stefan Harrer à proposer un cadre pour l'utilisation de l'IA générative en médecine.
Haller est directeur de l'innovation du Digital Health Collaborative Research Center (DHCRC) et membre du Consortium for Health Artificial Intelligence (CHAI). Le problème de l’utilisation de l’IA générative, a-t-il déclaré, est sa capacité à générer des contenus convaincants faux, inappropriés ou dangereux.
Stephen Haller a déclaré : « L’essence d’une récupération efficace des connaissances est de poser les bonnes questions, et l’art de la pensée critique dépend de la capacité de chacun à explorer les réponses en évaluant la validité des modèles du monde qui sont incapables d’accomplir ces missions. »
Haller estime que l’IA générative a le potentiel de transformer les soins de santé, mais ce n’est pas encore le cas. À cette fin, il a recommandé l'introduction d'un cadre réglementaire fondé sur l'éthique contenant 10 principes qui, selon lui, pourraient atténuer les risques posés par l'IA générative dans les soins de santé :
Fait intéressant, le cadre de Stephen Haller coïncide avec les appels de Sam Altman, PDG d’Open AI de ChatGPT, qui a appelé les législateurs américains à introduire une réglementation gouvernementale pour empêcher l’IA d’affecter les risques potentiels posés aux humains. Sam Altman, cofondateur d'OpenAI en 2015 avec le soutien d'Elon Musk, a suggéré que les gouvernements introduisent des exigences en matière de licences et de tests avant de publier des modèles d'IA plus puissants.
En Europe, le projet de loi sur l'intelligence artificielle sera voté au Parlement européen le mois prochain. Si elle est adoptée, la législation pourrait interdire la surveillance biométrique, la reconnaissance des émotions et certains systèmes d’intelligence artificielle utilisés par la police.
Le cadre plutôt général de Stephen Haller peut être appliqué à de nombreux lieux de travail où il existe un risque que l’IA remplace les humains. Cela semble arriver à un moment où les gens (même ceux responsables de la création de la technologie) appellent à une pause dans le monde de l’intelligence artificielle.
L'industrie médicale est-elle confrontée à des risques plus importants que les autres secteurs d'emploi ? Un tel cadre est-il bénéfique ? Plus important encore, compte tenu de la vitesse à laquelle l’IA se développe, réduira-t-elle réellement les risques ? Peut-être que seul le temps nous apportera les réponses à ces questions.
Si vos amis l'aiment, faites attention à « Connaître les nouveautés » !
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!