Peningkatan AI generatif telah mendorong pakar etika AI untuk mencadangkan rangka kerja untuk mengurangkan risiko menggunakan teknologi yang berkembang ini dalam penjagaan kesihatan. Pada masa yang sama, Ketua Pegawai Eksekutif OpenAI ChatGPT juga menggesa penggubal undang-undang A.S. untuk mula mengawal selia kecerdasan buatan untuk memastikan keselamatan manusia.
Atas: Peningkatan kecerdasan buatan generatif telah mendorong panggilan untuk pengenalan rangka kerja untuk mengawal penggunaannya dalam penjagaan kesihatan.
Penulis fiksyen sains Isaac Asimov mencadangkan Tiga Undang-undang Robotiknya dalam cerpen 1942 "Runaround." Dia meninggal dunia pada tahun 1992, lama sebelum menyaksikan kebangkitan kecerdasan buatan generatif dalam beberapa tahun kebelakangan ini.
AI Generatif termasuk algoritma seperti ChatGPT atau DALL-E, yang boleh menggunakan data terlatih untuk mencipta kandungan baharu, termasuk teks, imej, audio, video dan kod komputer. Model bahasa besar (LLM) ialah komponen utama kecerdasan buatan generatif, rangkaian saraf yang dilatih pada sejumlah besar teks tidak berlabel menggunakan pembelajaran diselia sendiri atau separa penyeliaan.
Pada masa ini, keupayaan kecerdasan buatan generatif berkembang dengan pesat. Dalam penjagaan kesihatan, ia telah digunakan untuk meramalkan hasil pesakit dengan belajar daripada set data pesakit yang besar, mendiagnosis penyakit yang jarang berlaku dengan ketepatan yang luar biasa, dan lulus Peperiksaan Pelesenan Perubatan A.S. tanpa pembelajaran terlebih dahulu.
Potensi AI untuk memasuki penjagaan kesihatan dan menggantikan doktor, jururawat dan profesional kesihatan lain telah mendorong ahli etika AI Stefan Harrer untuk mencadangkan rangka kerja untuk menggunakan AI generatif dalam perubatan.
Haller ialah ketua pegawai inovasi Pusat Penyelidikan Kolaboratif Kesihatan Digital (DHRCC) dan ahli Konsortium untuk Kecerdasan Buatan Kesihatan (CHAI). Masalah menggunakan AI generatif, katanya, adalah keupayaannya untuk menjana kandungan yang meyakinkan palsu, tidak sesuai atau berbahaya.
Stephen Haller berkata: "Intipati perolehan pengetahuan yang cekap ialah bertanya soalan yang betul, dan seni pemikiran kritis bergantung pada keupayaan seseorang untuk meneroka jawapan dengan menilai kesahihan model dunia tidak dapat menyelesaikan tugasan ini. ”
Haller percaya bahawa AI generatif mempunyai potensi untuk mengubah penjagaan kesihatan, tetapi ia masih belum berlaku. Untuk tujuan ini, beliau mengesyorkan pengenalan rangka kerja kawal selia berasaskan etika yang mengandungi 10 prinsip yang, katanya, boleh mengurangkan risiko yang ditimbulkan oleh AI generatif dalam penjagaan kesihatan:
Menariknya, rangka kerja Stephen Haller bertepatan dengan panggilan daripada Ketua Pegawai Eksekutif AI Terbuka ChatGPT Sam Altman, yang telah menyeru penggubal undang-undang A.S. untuk memperkenalkan peraturan kerajaan bagi menghalang kecerdasan buatan Potensi risiko yang ditimbulkan oleh kecerdasan kepada manusia. Sam Altman, yang mengasaskan OpenAI pada 2015 dengan sokongan Elon Musk, telah mencadangkan agar kerajaan memperkenalkan keperluan pelesenan dan ujian sebelum mengeluarkan model AI yang lebih berkuasa.
Di Eropah, Rang Undang-undang Kepintaran Buatan akan diundi di Parlimen Eropah bulan depan. Jika diluluskan, undang-undang itu boleh melarang pengawasan biometrik, pengecaman emosi dan beberapa sistem kecerdasan buatan yang digunakan dalam kepolisan.
Rangka kerja Stephen Haller yang agak umum boleh digunakan pada banyak tempat kerja yang terdapat risiko AI menggantikan manusia. Nampaknya datang pada masa orang (malah mereka yang bertanggungjawab untuk mencipta teknologi) meminta untuk berhenti seketika dalam dunia kecerdasan buatan.
Adakah industri perubatan menghadapi risiko yang lebih besar daripada industri pekerjaan lain? Adakah rangka kerja sedemikian bermanfaat? Lebih penting lagi, memandangkan kelajuan AI berkembang, adakah ia sebenarnya akan mengurangkan risiko? Mungkin, hanya masa yang akan memberi kita jawapan kepada soalan-soalan ini.
Jika rakan anda menyukainya, sila beri perhatian kepada "Ketahui perkara baharu"!
Atas ialah kandungan terperinci Perlukah ada kod kelakuan untuk kecerdasan buatan dalam penjagaan kesihatan?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!