Der Aufstieg der generativen KI hat einen KI-Ethiker dazu veranlasst, einen Rahmen vorzuschlagen, um die Risiken des Einsatzes dieser sich entwickelnden Technologie im Gesundheitswesen zu verringern. Gleichzeitig forderte der CEO von ChatGPTs OpenAI auch die US-Gesetzgeber auf, mit der Regulierung künstlicher Intelligenz zu beginnen, um die menschliche Sicherheit zu gewährleisten.
Oben: Der Aufstieg der generativen künstlichen Intelligenz hat zu Forderungen nach der Einführung eines Rahmens zur Regulierung ihres Einsatzes im Gesundheitswesen geführt.
Der Science-Fiction-Autor Isaac Asimov schlug seine drei Gesetze der Robotik in der Kurzgeschichte „Runaround“ von 1942 vor. Er starb 1992, lange bevor er in den letzten Jahren den Aufstieg der generativen künstlichen Intelligenz miterlebte.
Generative KI umfasst Algorithmen wie ChatGPT oder DALL-E, die trainierte Daten verwenden können, um neue Inhalte zu erstellen, einschließlich Text, Bilder, Audio, Video und Computercode. Große Sprachmodelle (LLMs) sind eine Schlüsselkomponente der generativen künstlichen Intelligenz, neuronaler Netze, die durch selbstüberwachtes oder halbüberwachtes Lernen auf große Mengen unbeschrifteten Textes trainiert werden.
Derzeit wachsen die Fähigkeiten generativer künstlicher Intelligenz exponentiell. Im Gesundheitswesen wurde es verwendet, um Patientenergebnisse vorherzusagen, indem man aus großen Patientendatensätzen lernte, seltene Krankheiten mit unglaublicher Genauigkeit diagnostizierte und die US-amerikanische Zulassungsprüfung ohne vorheriges Lernen bestand. Erreichte eine Punktzahl von 60 %.
Das Potenzial der KI, im Gesundheitswesen Einzug zu halten und Ärzte, Krankenschwestern und andere Gesundheitsfachkräfte zu ersetzen, hat den KI-Ethiker Stefan Harrer dazu veranlasst, einen Rahmen für den Einsatz generativer KI in der Medizin vorzuschlagen.
Haller ist Chief Innovation Officer des Digital Health Collaborative Research Centre (DHCRC) und Mitglied des Consortium for Health Artificial Intelligence (CHAI). Das Problem beim Einsatz generativer KI sei seiner Meinung nach ihre Fähigkeit, Inhalte zu generieren, die überzeugend falsch, unangemessen oder gefährlich seien.
Stephen Haller sagte: „Die Essenz einer effizienten Wissensbeschaffung besteht darin, die richtigen Fragen zu stellen, und die Kunst des kritischen Denkens hängt von der Fähigkeit ab, Antworten zu finden, indem man die Gültigkeit von Weltmodellen bewertet. LLMs sind nicht in der Lage, diese Mission zu erfüllen.“
Haller glaubt, dass generative KI das Potenzial hat, das Gesundheitswesen zu verändern, aber das ist noch nicht so weit. Zu diesem Zweck empfahl er die Einführung eines ethikbasierten Regulierungsrahmens mit zehn Grundsätzen, die seiner Meinung nach die Risiken generativer KI im Gesundheitswesen mindern könnten:
Interessanterweise deckt sich Stephen Hallers Rahmen mit Aufrufen von Sam Altman, CEO von ChatGPT Open AI, der die US-Gesetzgeber aufforderte, staatliche Vorschriften einzuführen, um zu verhindern, dass KI potenzielle Risiken für den Menschen beeinträchtigt. Sam Altman, der OpenAI 2015 mit Unterstützung von Elon Musk mitbegründete, hat vorgeschlagen, dass Regierungen Lizenz- und Testanforderungen einführen, bevor sie leistungsfähigere KI-Modelle veröffentlichen.
In Europa wird nächsten Monat im Europäischen Parlament über den Gesetzentwurf zur künstlichen Intelligenz abgestimmt. Im Falle einer Verabschiedung könnte das Gesetz biometrische Überwachung, Emotionserkennung und einige bei der Polizeiarbeit eingesetzte Systeme der künstlichen Intelligenz verbieten.
Stephen Hallers eher allgemeiner Rahmen lässt sich auf viele Arbeitsplätze anwenden, an denen die Gefahr besteht, dass KI den Menschen ersetzt. Es scheint zu einer Zeit zu kommen, in der Menschen (sogar diejenigen, die für die Entwicklung der Technologie verantwortlich sind) eine Pause in der Welt der künstlichen Intelligenz fordern.
Ist die Medizinbranche größeren Risiken ausgesetzt als andere Beschäftigungsbranchen? Ist ein solcher Rahmen sinnvoll? Noch wichtiger: Wird sie angesichts der Geschwindigkeit, mit der sich KI entwickelt, tatsächlich das Risiko verringern? Vielleicht wird uns nur die Zeit Antworten auf diese Fragen geben.
Wenn es Ihren Freunden gefällt, achten Sie bitte auf „Wissen, was es Neues gibt“!
Das obige ist der detaillierte Inhalt vonSollte es einen Verhaltenskodex für künstliche Intelligenz im Gesundheitswesen geben?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!