Sollte es einen Verhaltenskodex für künstliche Intelligenz im Gesundheitswesen geben?

王林
Freigeben: 2023-05-31 12:53:19
nach vorne
1194 Leute haben es durchsucht

Der Aufstieg der generativen KI hat einen KI-Ethiker dazu veranlasst, einen Rahmen vorzuschlagen, um die Risiken des Einsatzes dieser sich entwickelnden Technologie im Gesundheitswesen zu verringern. Gleichzeitig forderte der CEO von ChatGPTs OpenAI auch die US-Gesetzgeber auf, mit der Regulierung künstlicher Intelligenz zu beginnen, um die menschliche Sicherheit zu gewährleisten.

Sollte es einen Verhaltenskodex für künstliche Intelligenz im Gesundheitswesen geben?

Oben: Der Aufstieg der generativen künstlichen Intelligenz hat zu Forderungen nach der Einführung eines Rahmens zur Regulierung ihres Einsatzes im Gesundheitswesen geführt.

Der Science-Fiction-Autor Isaac Asimov schlug seine drei Gesetze der Robotik in der Kurzgeschichte „Runaround“ von 1942 vor. Er starb 1992, lange bevor er in den letzten Jahren den Aufstieg der generativen künstlichen Intelligenz miterlebte.

Generative KI umfasst Algorithmen wie ChatGPT oder DALL-E, die trainierte Daten verwenden können, um neue Inhalte zu erstellen, einschließlich Text, Bilder, Audio, Video und Computercode. Große Sprachmodelle (LLMs) sind eine Schlüsselkomponente der generativen künstlichen Intelligenz, neuronaler Netze, die durch selbstüberwachtes oder halbüberwachtes Lernen auf große Mengen unbeschrifteten Textes trainiert werden.

Derzeit wachsen die Fähigkeiten generativer künstlicher Intelligenz exponentiell. Im Gesundheitswesen wurde es verwendet, um Patientenergebnisse vorherzusagen, indem man aus großen Patientendatensätzen lernte, seltene Krankheiten mit unglaublicher Genauigkeit diagnostizierte und die US-amerikanische Zulassungsprüfung ohne vorheriges Lernen bestand. Erreichte eine Punktzahl von 60 %.

Das Potenzial der KI, im Gesundheitswesen Einzug zu halten und Ärzte, Krankenschwestern und andere Gesundheitsfachkräfte zu ersetzen, hat den KI-Ethiker Stefan Harrer dazu veranlasst, einen Rahmen für den Einsatz generativer KI in der Medizin vorzuschlagen.

Haller ist Chief Innovation Officer des Digital Health Collaborative Research Centre (DHCRC) und Mitglied des Consortium for Health Artificial Intelligence (CHAI). Das Problem beim Einsatz generativer KI sei seiner Meinung nach ihre Fähigkeit, Inhalte zu generieren, die überzeugend falsch, unangemessen oder gefährlich seien.

Stephen Haller sagte: „Die Essenz einer effizienten Wissensbeschaffung besteht darin, die richtigen Fragen zu stellen, und die Kunst des kritischen Denkens hängt von der Fähigkeit ab, Antworten zu finden, indem man die Gültigkeit von Weltmodellen bewertet. LLMs sind nicht in der Lage, diese Mission zu erfüllen.“

Haller glaubt, dass generative KI das Potenzial hat, das Gesundheitswesen zu verändern, aber das ist noch nicht so weit. Zu diesem Zweck empfahl er die Einführung eines ethikbasierten Regulierungsrahmens mit zehn Grundsätzen, die seiner Meinung nach die Risiken generativer KI im Gesundheitswesen mindern könnten:

  1. Entwerfen Sie KI als Hilfsmittel, das menschliche Entscheidungsträger unterstützt, sie aber nicht ersetzt.
  2. Entwerfen Sie KI, um Kennzahlen zu Leistung, Nutzung und Auswirkungen zu erstellen, erklären Sie, wann und wie KI zur Unterstützung der Entscheidungsfindung eingesetzt werden kann, und suchen Sie nach potenziellen Verzerrungen.
  3. Entwerfen Sie künstliche Intelligenz, die auf dem Wertesystem der Zielgruppe basiert und sich daran hält.
  4. Kündigen Sie den Zweck und die Verwendung von KI bereits zu Beginn der Konzept- oder Entwicklungsarbeit an.
  5. Legen Sie alle Datenquellen offen, die zum Trainieren künstlicher Intelligenz verwendet werden.
  6. Entwerfen Sie KI, um KI-generierte Inhalte klar und transparent zu kennzeichnen.
  7. Prüfen Sie KI regelmäßig auf Datenschutz-, Sicherheits- und Leistungsstandards.
  8. Erfassen und teilen Sie Prüfergebnisse, informieren Sie Benutzer über KI-Funktionen, -Einschränkungen und -Risiken und verbessern Sie die KI-Leistung durch Umschulung und Aktualisierung von Algorithmen.
  9. Stellen Sie sicher, dass bei der Einstellung von Personalentwicklungspersonal faire Arbeits- und sichere Arbeitsstandards angewendet werden.
  10. Schaffen Sie einen rechtlichen Präzedenzfall, der klar definiert, wann Daten für das KI-Training verwendet werden können, und schaffen Sie einen Rahmen für Urheberrecht, Verantwortung und Rechenschaftspflicht, um Trainingsdaten, KI-generierte Inhalte und die Auswirkungen menschlicher Entscheidungen, die anhand dieser Daten getroffen werden, zu regeln.

Interessanterweise deckt sich Stephen Hallers Rahmen mit Aufrufen von Sam Altman, CEO von ChatGPT Open AI, der die US-Gesetzgeber aufforderte, staatliche Vorschriften einzuführen, um zu verhindern, dass KI potenzielle Risiken für den Menschen beeinträchtigt. Sam Altman, der OpenAI 2015 mit Unterstützung von Elon Musk mitbegründete, hat vorgeschlagen, dass Regierungen Lizenz- und Testanforderungen einführen, bevor sie leistungsfähigere KI-Modelle veröffentlichen.

In Europa wird nächsten Monat im Europäischen Parlament über den Gesetzentwurf zur künstlichen Intelligenz abgestimmt. Im Falle einer Verabschiedung könnte das Gesetz biometrische Überwachung, Emotionserkennung und einige bei der Polizeiarbeit eingesetzte Systeme der künstlichen Intelligenz verbieten.

Stephen Hallers eher allgemeiner Rahmen lässt sich auf viele Arbeitsplätze anwenden, an denen die Gefahr besteht, dass KI den Menschen ersetzt. Es scheint zu einer Zeit zu kommen, in der Menschen (sogar diejenigen, die für die Entwicklung der Technologie verantwortlich sind) eine Pause in der Welt der künstlichen Intelligenz fordern.

Ist die Medizinbranche größeren Risiken ausgesetzt als andere Beschäftigungsbranchen? Ist ein solcher Rahmen sinnvoll? Noch wichtiger: Wird sie angesichts der Geschwindigkeit, mit der sich KI entwickelt, tatsächlich das Risiko verringern? Vielleicht wird uns nur die Zeit Antworten auf diese Fragen geben.

Wenn es Ihren Freunden gefällt, achten Sie bitte auf „Wissen, was es Neues gibt“!

Das obige ist der detaillierte Inhalt vonSollte es einen Verhaltenskodex für künstliche Intelligenz im Gesundheitswesen geben?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:sohu.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage