


Bagaimana untuk mengawal selia bot AI generatif seperti ChatGPT dan Bard?
Penyelidikan menunjukkan bahawa penggunaan meluas alatan kecerdasan buatan am mewujudkan cabaran baharu bagi pengawal selia yang mungkin sukar mereka hadapi. Malah, cara mengawal selia alatan AI generatif seperti chatbot OpenAI ChatGPT telah menjadi masalah yang menyusahkan pembuat dasar di seluruh dunia.
ChatGPT boleh menjana sebarang jenis kandungan melalui kata kunci dan dilatih untuk memasukkan sejumlah besar pengetahuan. Penyelesaiannya akan melibatkan penilaian risiko, yang sebahagian daripadanya, khususnya, harus dipantau dengan teliti.
Dua bulan selepas pelancaran ChatGPT, chatbot AI ini menjadi produk pengguna yang paling pesat berkembang dalam sejarah, dengan lebih 100 juta pengguna aktif pada Januari tahun ini sahaja. Ini telah mendorong syarikat teknologi besar di seluruh dunia untuk memberi perhatian kepada atau mempercepatkan pelancaran sistem AI, dan telah membawa tenaga baharu kepada bidang AI perbualan.
Microsoft sedang membenamkan AI perbualan dalam penyemak imbasnya, enjin carian dan rangkaian produk yang lebih luas, Google bercadang untuk melakukan perkara yang sama dengan chatbot Bard dan penyepaduan lain dalam Gmail dan Google Cloud dan gergasi Tech yang lain juga melancarkan mereka sendiri; chatbots; pemula seperti Jasper dan Quora juga membawa AI generatif dan perbualan ke dalam pasaran pengguna dan perusahaan arus perdana...
AI Generatif mempercepatkan Permintaan peraturan
Maklumat salah yang meluas dan e-mel pancingan data yang sukar ditemui menimbulkan risiko sebenar kepada aplikasi AI, yang boleh membawa kepada kesilapan diagnosis dan ralat perubatan jika digunakan untuk maklumat perubatan. Terdapat juga risiko berat sebelah yang tinggi jika data yang digunakan untuk mengisi model tidak pelbagai.
Walaupun Microsoft mempunyai model yang dilatih semula yang lebih tepat dan pembekal seperti AI21 Inc. sedang berusaha untuk mengesahkan kandungan yang dijana terhadap data langsung, AI yang dijana "kelihatan nyata tetapi tidak tepat sama sekali" Risiko tindak balas kekal tinggi.
Pesuruhjaya Pasaran Dalaman Kesatuan Eropah Thierry Breton baru-baru ini menyatakan bahawa bil AI EU akan datang akan merangkumi peruntukan untuk sistem AI generatif seperti ChatGPT dan Bard.
"Seperti yang ditunjukkan oleh ChatGPT, penyelesaian AI boleh menawarkan peluang besar kepada perniagaan dan rakyat, tetapi ia juga boleh membawa risiko, itulah sebabnya kami memerlukan rangka kerja kawal selia yang kukuh untuk memastikan AI Dipercayai berasaskan kualiti untuk data," katanya.
Pembangunan AI perlu beretika
Pembekal perisian analitis SAS menggariskan beberapa risiko yang ditimbulkan oleh AI dalam laporan bertajuk "AI dan Inovasi Bertanggungjawab" . Dr. Kirk Borne, pengarang laporan itu, berkata: “AI telah menjadi begitu berkuasa dan begitu meluas sehingga semakin sukar untuk mengetahui sama ada kandungan yang dihasilkannya adalah benar atau palsu, baik atau buruk Kepantasan penggunaan teknologi ini jauh lebih pantas daripada kadar peraturan.”
Dr Iain Brown, ketua sains data di SAS UK dan Ireland, berkata kedua-dua kerajaan dan industri mempunyai tanggungjawab untuk memastikan bahawa AI digunakan untuk kebaikan dan bukannya kemudaratan. Ini termasuk menggunakan rangka kerja etika untuk membimbing pembangunan model AI dan tadbir urus yang ketat untuk memastikan model ini membuat keputusan yang adil, telus dan saksama. Kita boleh membandingkan model AI dengan model pencabar dan mengoptimumkannya apabila data baharu tersedia. ”
Pakar lain percaya bahawa pembangun perisian akan dikehendaki mengurangkan risiko yang diwakili oleh perisian, dan hanya aktiviti yang paling berisiko akan menghadapi langkah pengawalseliaan yang lebih ketat
Ropes & Grey LLP (Ropes & Grey ) Penolong Data, Privasi dan Keselamatan Siber Edward Machin berkata bahawa tidak dapat dielakkan bahawa teknologi seperti ChatGPT, yang kelihatan sekelip mata, akan diterima pakai lebih cepat daripada peraturan kawal selia, terutamanya dalam persekitaran yang sudah sukar seperti AI
Beliau berkata: “Walaupun dasar kawal selia untuk teknologi ini akan diperkenalkan, kaedah dan masa kawal selia masih perlu dilihat. Pembekal sistem AI akan menanggung beban, tetapi pengimport dan pengedar (sekurang-kurangnya di EU) juga akan menanggung potensi obligasi. Ini mungkin meletakkan beberapa pembangun perisian sumber terbuka dalam masalah. Bagaimana tanggungjawab pembangun sumber terbuka dan pihak hiliran lain dikendalikan boleh memberi kesan yang menyedihkan ke atas kesediaan individu ini untuk berinovasi dan menjalankan penyelidikan. ”
Peraturan Hak Cipta, Privasi dan GDPR
Di samping itu, Machin percaya bahawa sebagai tambahan kepada peraturan keseluruhan AI, terdapat juga isu mengenai hak cipta dan privasi kandungan yang dihasilkannya. Contohnya, tidak jelas betapa mudahnya (jika ada) pembangun boleh memproses permintaan individu untuk dialih keluar atau pembetulan, mahupun cara mereka boleh mengikis tapak pihak ketiga daripada tapak mereka dengan cara yang mungkin melanggar syarat perkhidmatan mereka. Banyak data.
Lilian Edwards, seorang profesor undang-undang, inovasi dan masyarakat di Universiti Newcastle yang bekerja pada peraturan AI di Institut Alan Turing, berkata beberapa model ini akan tertakluk kepada peraturan GDPR, yang boleh menyebabkan untuk Mengeluarkan perintah untuk memadamkan data latihan atau bahkan algoritma itu sendiri Jika pemilik tapak web kehilangan trafik ke carian AI, ia juga boleh menamatkan pengikisan besar-besaran data daripada internet yang pada masa ini menguasai enjin carian seperti Google
Beliau menegaskan bahawa masalah terbesar ialah sifat umum model AI ini. Ini menjadikan mereka sukar dikawal di bawah Akta AI EU, yang dirangka berdasarkan risiko yang dihadapi, kerana sukar untuk memberitahu perkara yang akan dilakukan oleh pengguna akhir dengan teknologi tersebut. Suruhanjaya Eropah cuba menambah peraturan untuk mengawal jenis teknologi ini.
Meningkatkan ketelusan algoritma mungkin merupakan penyelesaian. "Big Tech akan mula melobi pengawal selia, berkata, 'Anda tidak boleh mengenakan kewajipan ini kepada kami kerana kami tidak dapat membayangkan setiap risiko atau penggunaan pada masa hadapan,'" kata Edwards "Terdapat cara untuk menangani masalah ini untuk Syarikat Teknologi Besar membantu lebih kurang, termasuk dengan menjadikan algoritma asas lebih telus Kami berada dalam masa yang sukar dan memerlukan insentif untuk bergerak ke arah keterbukaan dan ketelusan untuk lebih memahami cara AI membuat keputusan dan menjana kandungan >
Dia juga berkata: “Ini adalah masalah yang sama yang dihadapi oleh orang ramai apabila menggunakan teknologi yang lebih membosankan, kerana teknologi adalah global dan orang yang mempunyai niat buruk berada di mana-mana, jadi sangat sukar untuk mengawalnya sukar untuk dipadankan dengan peraturan AI. " Adam Leon Smith, ketua pegawai teknologi DragonFly, penyedia perkhidmatan perundingan AI, berkata: "Pengawal selia global semakin sedar bahawa jika penggunaan sebenar teknologi AI tidak dipertimbangkan, situasi akan berlaku. , adalah sukar untuk mengawal selia keperluan ketepatan dan berat sebelah hanya boleh dipertimbangkan dalam konteks penggunaan, dan sukar untuk mempertimbangkan keperluan risiko, hak dan kebebasan sebelum diterima pakai secara besar-besaran ”“Pengawal selia boleh. Ketelusan dan pembalakan diberi mandat oleh penyedia teknologi AI Namun, hanya pengguna yang mengendalikan dan menggunakan sistem model bahasa besar (LLM) untuk tujuan tertentu boleh memahami risiko dan melaksanakan langkah mitigasi melalui penyeliaan manual atau pemantauan berterusan.Peraturan AI akan berlaku
Terdapat perbahasan besar-besaran mengenai peraturan AI dalam Suruhanjaya Eropah, dan pengawal selia data mesti menanganinya dengan serius. Akhirnya, Smith percaya bahawa apabila pengawal selia memberi lebih perhatian kepada isu ini, penyedia AI akan mula menyenaraikan tujuan teknologi "mungkin tidak digunakan", termasuk mengeluarkan penafian undang-undang sebelum pengguna log masuk, meletakkan mereka dalam kedudukan berasaskan risiko di luar skop tindakan peraturan. Leon Smith berkata bahawa amalan terbaik semasa untuk mengurus sistem AI hampir tidak melibatkan model bahasa berskala besar, yang merupakan bidang baru muncul yang sedang membangun dengan sangat pesat. Walaupun terdapat banyak kerja yang perlu dilakukan dalam bidang ini, banyak syarikat menawarkan teknologi ini dan tidak membantu menentukannya. Ketua Pegawai Teknologi OpenAI Mira Muratti juga berkata bahawa alatan AI generatif perlu dikawal, "Adalah penting bagi syarikat seperti kami untuk menyedarkan orang ramai tentang perkara ini dengan cara yang terkawal dan bertanggungjawab." Tetapi dia juga berkata bahawa selain mengawal selia pembekal AI, lebih banyak pelaburan dalam sistem AI diperlukan, termasuk daripada agensi kawal selia dan kerajaan. ”Atas ialah kandungan terperinci Bagaimana untuk mengawal selia bot AI generatif seperti ChatGPT dan Bard?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

Video Face Swap
Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas

Worldcoin (WLD) menonjol dalam pasaran cryptocurrency dengan mekanisme pengesahan biometrik dan perlindungan privasi yang unik, menarik perhatian banyak pelabur. WLD telah melakukan yang luar biasa di kalangan altcoin dengan teknologi inovatifnya, terutamanya dalam kombinasi dengan teknologi kecerdasan buatan terbuka. Tetapi bagaimanakah aset digital akan berkelakuan dalam beberapa tahun akan datang? Mari kita meramalkan harga masa depan WLD bersama -sama. Ramalan harga WLD 2025 dijangka mencapai pertumbuhan yang signifikan di WLD pada tahun 2025. Analisis pasaran menunjukkan bahawa harga WLD purata boleh mencapai $ 1.31, dengan maksimum $ 1.36. Walau bagaimanapun, dalam pasaran beruang, harga mungkin jatuh ke sekitar $ 0.55. Harapan pertumbuhan ini disebabkan terutamanya oleh WorldCoin2.

Pertukaran yang menyokong urus niaga rantaian: 1. Binance, 2. Uniswap, 3 Sushiswap, 4. Kewangan Curve, 5. Thorchain, 6. 1 inci Pertukaran, 7.

Aavenomics adalah cadangan untuk mengubah token protokol AAVE dan memperkenalkan repos token, yang telah melaksanakan kuorum untuk Aavedao. Marc Zeller, pengasas Rantaian Projek AAVE (ACI), mengumumkan ini pada X, dengan menyatakan bahawa ia menandakan era baru untuk perjanjian itu. Marc Zeller, pengasas Inisiatif Rantaian AAVE (ACI), mengumumkan pada X bahawa cadangan aavenomik termasuk mengubah token protokol AAVE dan memperkenalkan repos token, telah mencapai kuorum untuk Aavedao. Menurut Zeller, ini menandakan era baru untuk perjanjian itu. Ahli -ahli Aavedao mengundi untuk menyokong cadangan itu, yang 100 seminggu pada hari Rabu

Cadangan untuk memilih pertukaran cryptocurrency: 1. Untuk keperluan kecairan, keutamaan adalah Binance, Gate.io atau Okx, kerana kedalaman pesanannya dan rintangan volatilitas yang kuat. 2. Pematuhan dan Keselamatan, Coinbase, Kraken dan Gemini mempunyai sokongan pengawalseliaan yang ketat. 3. Fungsi inovatif, reka bentuk derivatif Kucoin yang lembut dan Bybit sesuai untuk pengguna lanjutan.

Dalam dunia kriptografi yang ramai, peluang baru selalu muncul. Pada masa ini, aktiviti udara Kerneldao (kernel) menarik banyak perhatian dan menarik perhatian banyak pelabur. Jadi, apakah asalnya projek ini? Apakah faedah yang boleh diperoleh oleh pemegang BNB? Jangan risau, perkara berikut akan mendedahkannya satu demi satu untuk anda.

Jatuh di pasaran cryptocurrency telah menyebabkan panik di kalangan pelabur, dan Dogecoin (Doge) telah menjadi salah satu kawasan terkena paling sukar. Harganya jatuh dengan ketara, dan jumlah nilai kunci kewangan yang terdesentralisasi (DEFI) (TVL) juga menyaksikan penurunan yang ketara. Gelombang jualan "Black Monday" menyapu pasaran cryptocurrency, dan Dogecoin adalah yang pertama dipukul. Defitvlnya jatuh ke tahap 2023, dan harga mata wang jatuh 23.78% pada bulan lalu. Defitvl Dogecoin jatuh ke tahap rendah $ 2.72 juta, terutamanya disebabkan oleh penurunan 26.37% dalam indeks nilai SOSO. Platform defi utama lain, seperti DAO dan Thorchain yang membosankan, TVL juga menurun sebanyak 24.04% dan 20.

Faktor kenaikan harga mata wang maya termasuk: 1. Peningkatan permintaan pasaran, 2. Menurunkan bekalan, 3. Berita positif yang dirangsang, 4. Sentimen pasaran optimis, 5. Persekitaran makroekonomi; Faktor penurunan termasuk: 1. Mengurangkan permintaan pasaran, 2. Peningkatan bekalan, 3.

Platform yang mempunyai prestasi cemerlang dalam perdagangan, keselamatan dan pengalaman pengguna yang dimanfaatkan pada tahun 2025 adalah: 1. Okx, sesuai untuk peniaga frekuensi tinggi, menyediakan sehingga 100 kali leverage; 2. Binance, sesuai untuk peniaga berbilang mata wang di seluruh dunia, memberikan 125 kali leverage tinggi; 3. Gate.io, sesuai untuk pemain derivatif profesional, menyediakan 100 kali leverage; 4. Bitget, sesuai untuk orang baru dan peniaga sosial, menyediakan sehingga 100 kali leverage; 5. Kraken, sesuai untuk pelabur mantap, menyediakan 5 kali leverage; 6. Bybit, sesuai untuk penjelajah altcoin, menyediakan 20 kali leverage; 7. Kucoin, sesuai untuk peniaga kos rendah, menyediakan 10 kali leverage; 8. Bitfinex, sesuai untuk bermain senior
