Rumah > Peranti teknologi > AI > teks badan

Perlukah ada kod kelakuan untuk kecerdasan buatan dalam penjagaan kesihatan?

王林
Lepaskan: 2023-05-31 12:53:19
ke hadapan
1195 orang telah melayarinya

Peningkatan AI generatif telah mendorong pakar etika AI untuk mencadangkan rangka kerja untuk mengurangkan risiko menggunakan teknologi yang berkembang ini dalam penjagaan kesihatan. Pada masa yang sama, Ketua Pegawai Eksekutif OpenAI ChatGPT juga menggesa penggubal undang-undang A.S. untuk mula mengawal selia kecerdasan buatan untuk memastikan keselamatan manusia.

Perlukah ada kod kelakuan untuk kecerdasan buatan dalam penjagaan kesihatan?

Atas: Peningkatan kecerdasan buatan generatif telah mendorong panggilan untuk pengenalan rangka kerja untuk mengawal penggunaannya dalam penjagaan kesihatan.

Penulis fiksyen sains Isaac Asimov mencadangkan Tiga Undang-undang Robotiknya dalam cerpen 1942 "Runaround." Dia meninggal dunia pada tahun 1992, lama sebelum menyaksikan kebangkitan kecerdasan buatan generatif dalam beberapa tahun kebelakangan ini.

AI Generatif termasuk algoritma seperti ChatGPT atau DALL-E, yang boleh menggunakan data terlatih untuk mencipta kandungan baharu, termasuk teks, imej, audio, video dan kod komputer. Model bahasa besar (LLM) ialah komponen utama kecerdasan buatan generatif, rangkaian saraf yang dilatih pada sejumlah besar teks tidak berlabel menggunakan pembelajaran diselia sendiri atau separa penyeliaan.

Pada masa ini, keupayaan kecerdasan buatan generatif berkembang dengan pesat. Dalam penjagaan kesihatan, ia telah digunakan untuk meramalkan hasil pesakit dengan belajar daripada set data pesakit yang besar, mendiagnosis penyakit yang jarang berlaku dengan ketepatan yang luar biasa, dan lulus Peperiksaan Pelesenan Perubatan A.S. tanpa pembelajaran terlebih dahulu.

Potensi AI untuk memasuki penjagaan kesihatan dan menggantikan doktor, jururawat dan profesional kesihatan lain telah mendorong ahli etika AI Stefan Harrer untuk mencadangkan rangka kerja untuk menggunakan AI generatif dalam perubatan.

Haller ialah ketua pegawai inovasi Pusat Penyelidikan Kolaboratif Kesihatan Digital (DHRCC) dan ahli Konsortium untuk Kecerdasan Buatan Kesihatan (CHAI). Masalah menggunakan AI generatif, katanya, adalah keupayaannya untuk menjana kandungan yang meyakinkan palsu, tidak sesuai atau berbahaya.

Stephen Haller berkata: "Intipati perolehan pengetahuan yang cekap ialah bertanya soalan yang betul, dan seni pemikiran kritis bergantung pada keupayaan seseorang untuk meneroka jawapan dengan menilai kesahihan model dunia tidak dapat menyelesaikan tugasan ini. ”

Haller percaya bahawa AI generatif mempunyai potensi untuk mengubah penjagaan kesihatan, tetapi ia masih belum berlaku. Untuk tujuan ini, beliau mengesyorkan pengenalan rangka kerja kawal selia berasaskan etika yang mengandungi 10 prinsip yang, katanya, boleh mengurangkan risiko yang ditimbulkan oleh AI generatif dalam penjagaan kesihatan:

  1. Reka bentuk AI sebagai alat bantu yang menambah pembuat keputusan manusia, tetapi tidak menggantikan mereka.
  2. Reka bentuk AI untuk menghasilkan metrik pada prestasi, penggunaan dan impak, terangkan masa dan cara menggunakan AI untuk membantu membuat keputusan dan mengimbas kemungkinan berat sebelah.
  3. Reka bentuk kecerdasan buatan yang berdasarkan dan mematuhi sistem nilai kumpulan pengguna sasaran.
  4. Umumkan tujuan dan penggunaan AI dari permulaan kerja konsep atau pembangunan.
  5. Dedahkan semua sumber data yang digunakan untuk melatih AI.
  6. Reka bentuk AI untuk melabelkan kandungan yang dijana AI dengan jelas dan telus.
  7. Secara kerap mengaudit AI terhadap privasi data, keselamatan dan standard prestasi.
  8. Rekod dan kongsi keputusan audit, mendidik pengguna tentang keupayaan AI, pengehadan dan risiko serta meningkatkan prestasi AI dengan melatih semula dan mengemas kini algoritma.
  9. Pastikan Kerja Adil dan Kerja Selamat digunakan apabila mengambil kakitangan pembangunan orang.
  10. Wujudkan duluan undang-undang yang mentakrifkan dengan jelas bila data boleh digunakan untuk latihan AI dan mewujudkan rangka kerja hak cipta, tanggungjawab dan akauntabiliti untuk mentadbir data latihan, kandungan yang dijana AI dan keputusan manusia yang dibuat menggunakan pengaruh data ini.

Menariknya, rangka kerja Stephen Haller bertepatan dengan panggilan daripada Ketua Pegawai Eksekutif AI Terbuka ChatGPT Sam Altman, yang telah menyeru penggubal undang-undang A.S. untuk memperkenalkan peraturan kerajaan bagi menghalang kecerdasan buatan Potensi risiko yang ditimbulkan oleh kecerdasan kepada manusia. Sam Altman, yang mengasaskan OpenAI pada 2015 dengan sokongan Elon Musk, telah mencadangkan agar kerajaan memperkenalkan keperluan pelesenan dan ujian sebelum mengeluarkan model AI yang lebih berkuasa.

Di Eropah, Rang Undang-undang Kepintaran Buatan akan diundi di Parlimen Eropah bulan depan. Jika diluluskan, undang-undang itu boleh melarang pengawasan biometrik, pengecaman emosi dan beberapa sistem kecerdasan buatan yang digunakan dalam kepolisan.

Rangka kerja Stephen Haller yang agak umum boleh digunakan pada banyak tempat kerja yang terdapat risiko AI menggantikan manusia. Nampaknya datang pada masa orang (malah mereka yang bertanggungjawab untuk mencipta teknologi) meminta untuk berhenti seketika dalam dunia kecerdasan buatan.

Adakah industri perubatan menghadapi risiko yang lebih besar daripada industri pekerjaan lain? Adakah rangka kerja sedemikian bermanfaat? Lebih penting lagi, memandangkan kelajuan AI berkembang, adakah ia sebenarnya akan mengurangkan risiko? Mungkin, hanya masa yang akan memberi kita jawapan kepada soalan-soalan ini.

Jika rakan anda menyukainya, sila beri perhatian kepada "Ketahui perkara baharu"!

Atas ialah kandungan terperinci Perlukah ada kod kelakuan untuk kecerdasan buatan dalam penjagaan kesihatan?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

sumber:sohu.com
Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Tutorial Popular
Lagi>
Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan