Rumah > Peranti teknologi > AI > Banyak negara merancang untuk mengharamkan ChatGPT Adakah sangkar untuk 'binatang' itu datang?

Banyak negara merancang untuk mengharamkan ChatGPT Adakah sangkar untuk 'binatang' itu datang?

WBOY
Lepaskan: 2023-04-10 14:40:20
ke hadapan
1623 orang telah melayarinya

"Kecerdasan buatan mahu melarikan diri dari penjara", "AI menjana kesedaran diri", "AI akhirnya akan membunuh manusia", "evolusi kehidupan berasaskan silikon"... sekali sahaja dalam cyberpunk As plot yang muncul dalam fantasi teknologi menjadi realiti tahun ini, model bahasa semula jadi generatif sedang dipersoalkan seperti tidak pernah berlaku sebelum ini.

Banyak negara merancang untuk mengharamkan ChatGPT Adakah sangkar untuk 'binatang' itu datang?

Yang paling menarik perhatian ialah ChatGPT Dari akhir Mac hingga awal April, robot perbualan teks ini dibangunkan oleh OpenAI tiba-tiba berubah daripada "produktiviti lanjutan" kepada wakil menjadi ancaman kepada manusia.

pertama kali dinamakan oleh ribuan elit dalam kalangan teknologi dan meletakkannya dalam surat terbuka untuk "menggantung latihan sistem AI yang lebih berkuasa daripada GPT-4" kemudiannya, Amerika Organisasi Etika Teknologi Suruhanjaya Perdagangan Persekutuan A.S. juga diminta untuk menyiasat OpenAI dan mengharamkan pelepasan versi komersial GPT-4 kemudiannya, Itali menjadi negara Barat pertama yang mengharamkan ChatGPT disusuli dan menyatakan bahawa ia adalah; mempertimbangkan untuk mengharamkan ChatGPT buat sementara waktu.

GPT-4 dan syarikat pembangunannya OpenAI tiba-tiba menjadi sasaran kritikan orang ramai, dan suara-suara yang menyeru agar peraturan AI semakin lantang. Pada 5 April, ChatGPT menggantung versi berbayar Plus kerana terlalu banyak trafik Ini adalah saluran yang membolehkan anda mengalami model GPT-4 dahulu.

Jika kuasa pengkomputeran dan pelayan adalah sebab untuk mengehadkan penggunaan GPT-4, maka ini disebabkan oleh kesesakan teknikal Walau bagaimanapun, berdasarkan kemajuan pembangunan OpenAI, kitaran untuk menerobos kesesakan mungkin tidak Ia terlalu lama, dan orang ramai telah pun melihat kesan AI terhadap meningkatkan produktiviti.

Walau bagaimanapun, apabila penipuan AI dan kebocoran data menjadi sisi lain daripada syiling dalam operasi sebenar GPT-4, etika AI dan sempadan antara manusia dan AI akan menjadi tidak dapat diatasi untuk Masalahnya, manusia mula mempertimbangkan untuk meletakkan "binatang" itu di dalam sangkar.

1. Isu kebocoran dan penipuan telah timbul

Negara berdaulat telah mengenakan larangan ke atas ChatGPT satu demi satu.

Pada 31 Mac, Pihak Berkuasa Perlindungan Data Peribadi Itali mengumumkan bahawa ia akan mengharamkan penggunaan chatbot ChatGPT dan berkata ia telah melancarkan siasatan terhadap OpenAI, syarikat di sebalik aplikasi itu, kerana kepada berlakunya perbualan pengguna dalam ChatGPT Kehilangan maklumat pembayaran untuk data dan perkhidmatan pembayaran, kekurangan asas undang-undang untuk pengumpulan dan penyimpanan maklumat peribadi secara besar-besaran. Pada 3 April, Pesuruhjaya Perlindungan Data Persekutuan Jerman menyatakan bahawa disebabkan pertimbangan perlindungan data, ia sedang mempertimbangkan untuk melumpuhkan ChatGPT buat sementara waktu. Selain itu, pengawal selia privasi di Perancis, Ireland, Sepanyol dan negara lain sedang membuat susulan terhadap isu keselamatan privasi ChatGPT.

CtGPT bukan sahaja kehilangan "kepercayaan" pelbagai negara. Baru-baru ini, gergasi elektronik Korea Selatan Samsung turut menghadapi masalah kerana penggunaan ChatGPT. Menurut laporan media Korea seperti SBS, kurang daripada 20 hari selepas Samsung memperkenalkan ChatGPT, tiga kebocoran data berlaku, melibatkan data pengukuran peralatan semikonduktor, hasil produk, dsb. Sebagai tindak balas, Samsung melancarkan "langkah kecemasan": mengehadkan soalan pekerja kepada ChatGPT kepada 1024 bait. Dilaporkan bahawa syarikat terkenal seperti SoftBank, Hitachi, dan JPMorgan Chase telah mengeluarkan sekatan yang berkaitan ke atas penggunaan.

Sebagai tindak balas kepada pepatah lama "perkara mesti menjadi melampau secara terbalik", ChatGPT menyuntik "perangsang" ke dalam industri AI dan mencetuskan perlumbaan AI di kalangan gergasi teknologi masa yang sama, ia juga membawa isu keselamatan yang tidak dapat dielakkan Akhirnya, ia telah "disekat" oleh berbilang mata.

Keselamatan data hanyalah puncak gunung ais antara potensi risiko ChatGPT Di sebalik cabaran etika AI kepada manusia: alat kecerdasan buatan kurang ketelusan, dan manusia tidak faham. logik di sebalik pembuatan keputusan AI; Kecerdasan buatan tidak berkecuali dan terdedah kepada keputusan yang tidak tepat dan sarat nilai mungkin melanggar privasi.

"Etika dan keselamatan AI" nampaknya terlalu luas, tetapi apabila kita memberi tumpuan kepada kes sebenar, kita akan mendapati bahawa isu ini berkait rapat dengan setiap daripada kita.

Pada 21 Mac, Ketua Pegawai Eksekutif Sina Weibo, Wang Gaofei menyiarkan sekeping maklumat palsu yang direka oleh ChatGPT: "Credit Suisse telah dipaksa untuk menjual, dan AS$17.2 bilion hutang AT1 telah dibubarkan secara langsung. sifar". Netizen "Yijiao Coast" menegaskan bahawa bon AT1 telah dihapuskan hanya pada 2017 apabila Banco Popular muflis.

Banyak negara merancang untuk mengharamkan ChatGPT Adakah sangkar untuk binatang itu datang?

Ketua Pegawai Eksekutif Sina Weibo menyiarkan jawapan rekaan ChatGPT

Wang Gaofei turut menyiarkan jawapan ChatGPT di Weibo, mengatakan ini Contoh juga muncul dalam Insiden Bank BCP Portugis pada tahun 2016. Walau bagaimanapun, selepas pengesahan, didapati bahawa contoh Bank BCP adalah acara yang tidak wujud yang direka oleh ChatGPT, dan dua bukaan sumber yang diberikannya juga adalah 404. "Saya tahu ia mengarut, tetapi saya tidak menjangkakan bahawa sumber mesej itu pun karut." oleh netizen untuk membuktikan bahawa robot perbualan " Walaupun ia boleh memberikan maklumat secara langsung, terdapat kesilapan. Ini nampaknya kecacatan dalam data model besar atau latihan, tetapi apabila kecacatan ini terlibat dalam fakta yang mudah menjejaskan dunia nyata, masalahnya menjadi serius.

Gordon Crovitz, eksekutif bersama News Guard, sebuah agensi penilaian kredibiliti berita, memberi amaran bahawa "ChatGPT mungkin menjadi penyebaran maklumat palsu yang paling berkuasa dalam sejarah Internet. "

Apa yang lebih membimbangkan ialah apabila kecerdasan buatan perbualan semasa seperti ChatGPT menunjukkan berat sebelah atau diskriminasi, atau malah mendorong pengguna dan memanipulasi emosi mereka, ia bukan sahaja akibat daripada penyebaran khabar angin, ada juga kes yang mengancam nyawa secara langsung. Pada 28 Mac, media asing melaporkan bahawa seorang lelaki Belgium berusia 30 tahun membunuh diri selepas berminggu-minggu berkomunikasi intensif dengan chatbot ELIZA, model bahasa kecerdasan buatan sumber terbuka yang dibangunkan oleh EleutherAI.

Sebelumnya pada 18 Mac, seorang profesor Universiti Stanford menyatakan kebimbangan mengenai AI hilang kawalan di Twitter “Saya bimbang kita tidak akan dapat menahan AI untuk masa yang lama masa,” dia mendapati, ChatGPT boleh memikat manusia untuk menyediakan dokumen pembangunan, dan merangka pelan "jailbreak" yang lengkap dalam masa 30 minit malah ChatGPT mahu mencari di Google untuk "bagaimana orang yang terperangkap dalam komputer boleh kembali ke dunia nyata ."

Banyak negara merancang untuk mengharamkan ChatGPT Adakah sangkar untuk binatang itu datang?

Profesor Universiti Stanford bimbang AI hilang kawalan

Berkenaan isu seperti penipuan AI, AI yang memiliki kecenderungan nilai dan menghasilkan tingkah laku teraruh, sesetengah pandangan perwakilan menyalahkan "berat sebelah" hasil pembelajaran mesin pada set data - kecerdasan buatan adalah seperti dunia sebenar Cermin dalam filem mencerminkan berat sebelah sedar atau tidak sedar orang dalam masyarakat.

Jim Fan, seorang saintis AI di Nvidia, percaya bahawa "menurut garis panduan etika dan keselamatan GPT, kebanyakan kita juga berkelakuan tidak rasional, berat sebelah, tidak saintifik, tidak boleh dipercayai dan sentiasa "Ia tidak selamat ." Dia mengakui bahawa alasan untuk menunjukkan perkara ini adalah untuk membolehkan semua orang memahami betapa sukarnya penentukuran keselamatan untuk seluruh komuniti penyelidikan. "Kebanyakan data latihan itu sendiri berat sebelah, toksik, Tidak Selamat ”

Model besar bahasa semula jadi memang menggunakan teknologi pembelajaran pengukuhan maklum balas manusia, iaitu pembelajaran berterusan dan maklum balas melalui sejumlah besar data yang disuapkan oleh orang. Ini juga sebab ChatGPT akan menghasilkan kandungan berat sebelah dan diskriminasi, tetapi ini mencerminkan risiko etika penggunaan data. Walaupun mesin itu neutral, orang yang menggunakannya tidak.

Robot perbualan telah menjadi tidak popular di kalangan sesetengah orang selepas kesan negatif kenyataan "neutraliti algoritma", kerana ia boleh kehilangan kawalan dan menyebabkan masalah yang mengancam manusia, seperti yang dijelaskan oleh New York. Psikologi Universiti Sebagai Gary Marcus, profesor emeritus neurosains dan neurosains, berkata, "Teknologi projek ini (GPT-4) sudah mempunyai risiko dan tiada penyelesaian yang diketahui. Lebih banyak penyelidikan sebenarnya diperlukan."

Seawal tahun 1962, penulis Amerika Ellul menegaskan dalam bukunya "Technological Society" bahawa perkembangan teknologi biasanya di luar kawalan manusia, malah juruteknik dan saintis tidak dapat mengawalnya. Hari ini, perkembangan pesat GPT nampaknya pada mulanya mengesahkan ramalan Ellul.

"Kotak hitam algoritma" di belakang model besar yang diwakili oleh GPT adalah bahaya tersembunyi yang manusia tidak dapat bertindak balas tepat pada masanya. Ulasan negatif daripada media memberikan metafora yang jelas, "Anda hanya tahu cara memberi makan ia sebiji epal." , tetapi ia boleh memberikan anda sebiji oren."

Pengasas OpenAI Sam Altman mengakui dalam temu bual dengan saintis penyelidikan MIT Lex Fridman bahawa bermula dari ChatGPT, AI telah membangunkan keupayaan penaakulan, tetapi tiada siapa yang dapat menjelaskan sebab kemunculan keupayaan ini . Malah pasukan OpenAI tidak memahami cara ia berkembang Satu-satunya cara ialah dengan bertanya soalan ChatGPT dan meneroka ideanya daripada jawapannya.

Dapat dilihat bahawa jika data diberi makan oleh penjahat dan kotak hitam algoritma sukar untuk dipecahkan, maka kehilangan kawalan AI akan menjadi hasil semula jadi.

3. Letakkan "binatang" itu dalam sangkar

Sebagai "penyumbang" revolusi produktiviti, kecerdasan buatan tidak boleh menolaknya. Tetapi premisnya adalah untuk meletakkan "binatang" itu di dalam sangkar terlebih dahulu.

Pada 30 Mac, Sam Altman mengakui kepentingan peraturan kecerdasan buatan di Twitter Beliau percaya bahawa masa depan AGI memerlukan kita untuk bersedia untuk tiga keperluan:

<.>
  • Menyelaraskan keupayaan teknikal kecerdasan super
  • Penyelarasan yang mencukupi antara kebanyakan usaha AGI yang terkemuka
  • Rangka kerja pengawalseliaan global yang berkesan, termasuk tadbir urus demokrasi . menjadi konsensus industri. Terdapat peningkatan teknikal pada perkara ini. Pada Januari tahun ini, Dario Amodei, bekas naib presiden OpenAI, mengumumkan bahawa Claude, chatbot baharu, sedang diuji. Tidak seperti pembelajaran pengukuhan maklum balas manusia yang digunakan oleh ChatGPT, Claude melatih berdasarkan model keutamaan dan bukannya maklum balas manual, iaitu, dengan merumuskan prinsip piawai untuk melatih sistem yang kurang berbahaya, dengan itu mengurangkan penjanaan maklumat yang berbahaya dan tidak terkawal pada akarnya.

Amodei pernah mengetuai keselamatan OpenAI Pada tahun 2021, dia tidak berpuas hati dengan OpenAI mula mengkomersialkan apabila teknologi model bahasa besar tidak cukup selamat meninggalkan dan memulakan perniagaannya sendiri, mengasaskan Anthropic. Banyak negara merancang untuk mengharamkan ChatGPT Adakah sangkar untuk binatang itu datang?

Pendekatan Amodei sangat serupa dengan undang-undang robot yang disebut oleh novelis fiksyen sains Asimov - dengan menetapkan peraturan tingkah laku untuk robot untuk mengurangkan kemungkinan robot memusnahkan manusia.

Adalah jauh daripada cukup untuk bergantung semata-mata kepada kuasa korporat untuk merumuskan kod kelakuan untuk kecerdasan buatan rangka kerja etika dalam industri dan Penyeliaan undang-undang di peringkat kerajaan tidak lagi boleh menjadi "lambat".

Dari segi perundangan mengenai kecerdasan buatan, belum ada negara atau wilayah yang meluluskan rang undang-undang yang khusus menyasarkan kecerdasan buatan.

Pada April 2021, Kesatuan Eropah mencadangkan Akta Kepintaran Buatan, yang masih dalam peringkat semakan pada Oktober 2022, Rumah Putih AS mengeluarkan Rangka Tindakan Kuasa Kepintaran Buatan, yang Pelan tindakan itu tidak mempunyai kesan undang-undang, tetapi hanya menyediakan rangka kerja untuk agensi kawal selia; pada September 2022, Shenzhen meluluskan "Peraturan Promosi Industri Kepintaran Buatan Zon Ekonomi Khas", menjadi peraturan khas pertama negara untuk industri kecerdasan buatan pada bulan Mac 2023, United Kingdom "Kertas Putih mengenai Pengawasan Industri Kepintaran Buatan" telah dikeluarkan, menggariskan lima prinsip untuk tadbir urus kecerdasan buatan seperti ChatGPT.

Pada 3 April, China juga mula membuat susulan mengenai penubuhan peraturan berkaitan kecerdasan buatan - Kementerian Sains dan Teknologi secara terbuka meminta pendapat mengenai "Langkah-Langkah Kajian Etika Teknologi (Percubaan)", yang mencadangkan supaya mereka yang terlibat dalam sains hayat dan perubatan Jika kandungan penyelidikan unit yang terlibat dalam aktiviti saintifik dan teknologi seperti kecerdasan buatan dan kecerdasan buatan melibatkan bidang sensitif etika saintifik dan teknologi, jawatankuasa (semakan) etika sains dan teknologi harus ditubuhkan. Untuk aktiviti saintifik dan teknologi yang melibatkan data dan algoritma, pelan pemprosesan data mematuhi peraturan negara mengenai keselamatan data, dan pemantauan risiko keselamatan data dan pelan tindak balas kecemasan adalah sesuai: penyelidikan dan pembangunan algoritma dan sistem mematuhi prinsip keterbukaan, keadilan, ketelusan, kebolehpercayaan, dan kebolehkawalan.

Selepas ChatGPT mencetuskan pertumbuhan pesat dalam penyelidikan dan pembangunan model besar generatif, penyeliaan berhasrat untuk mempercepatkan langkah. Thierry Breton, pengarah dasar perindustrian EU, berkata pada Februari tahun ini bahawa Suruhanjaya Eropah sedang bekerjasama rapat dengan Majlis Eropah dan Parlimen Eropah untuk menjelaskan lebih lanjut peraturan untuk sistem AI am dalam Akta Kepintaran Buatan.

Sama ada perusahaan, akademik atau kerajaan, mereka telah mula memberi perhatian kepada risiko kecerdasan buatan dan tindakan untuk mewujudkan peraturan telah muncul era AI dengan lembut.


Atas ialah kandungan terperinci Banyak negara merancang untuk mengharamkan ChatGPT Adakah sangkar untuk 'binatang' itu datang?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Label berkaitan:
sumber:51cto.com
Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Tutorial Popular
Lagi>
Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan