ChatGPT nampaknya sedang mengalami waterloo.
Pada 31 Mac, sebilangan besar pengguna mengadu di platform sosial bahawa mereka tidak lagi boleh log masuk ke akaun ChatGPT yang telah mereka buka dengan wang mereka sendiri, dan yang lebih memalukan ialah mereka tidak boleh mendaftar akaun baru. Memandangkan semakin ramai pengguna mendedahkan, didapati insiden larangan akaun telah bermula pada 30 Mac dan merebak dengan pantas.
Pada 1 April, semakin ramai orang mengatakan bahawa akaun mereka telah disekat, dan orang di platform utama serta sembang kumpulan bergegas untuk memberitahu satu sama lain "nota" untuk mengelakkan daripada disekat. Pada masa ini, akaun Plus yang pada asalnya boleh digunakan tidak terlepas, dan menjadi tidak sah satu demi satu, dan beberapa rekod tidak dapat disemak dalam bil.
Peliknya, setakat 3 April, sekatan akaun berskala besar nampaknya tidak berhenti ramai netizen juga menyiarkan di platform sosial dengan mengatakan, "ChatGPT semakin besar. Kawasan itu ditutup." Sebilangan besar pengguna melaporkan bahawa larangan akaun senyap kali ini tertumpu terutamanya di Asia Pada masa yang sama, OpenAI tidak mengeluarkan sebarang amaran atau tindak balas terhadap perkara ini.
Dari segi pematuhan, ChatGPT juga telah menghadapi penelitian baharu. Laman web Rekod mendedahkan bahawa agensi perlindungan data Itali secara rasmi mengumumkan larangan sementara penggunaan ChatGPT dan dengan tegas meminta syarikat induknya OpenAI untuk berhenti memproses maklumat pengguna Itali. Itali "melepaskan" pukulan pertama untuk mengharamkan ChatGPT!
Mengenai sebab pengharaman ChatGPT, pihak berkuasa perlindungan data Itali menyatakan bahawa OpenAI bukan sahaja secara haram mengumpul sejumlah besar data peribadi pengguna Itali, tetapi yang lebih teruk ialah OpenAI tidak menyediakan mekanisme untuk menyemak umur pengguna ChatGPT untuk menghalang kanak-kanak di bawah umur daripada menghubunginya.
Agensi perlindungan data Itali selanjutnya menyatakan bahawa OpenAI mempunyai 20 hari untuk mempertahankan kecurian maklumatnya, jika tidak, ia boleh didenda sehingga 20 juta euro atau perolehan tahunan syarikat kerana melanggar Peraturan Perlindungan Data Umum EU 4% penalti. Bukan sahaja dari segi denda, apabila OpenAI tidak dapat menjelaskan secara terperinci sama ada ia telah mengambil langkah untuk melindungi data pengguna, ia pasti akan meningkatkan kebarangkalian negara EU mengharamkan ChatGPT.
Selepas Itali mengharamkan ChatGPT, OpenAI segera membawa ChatGPT di luar talian di Itali, Ketua Pegawai Eksekutifnya Sam Altman segera tweet untuk menjelaskan bahawa kerja yang dilakukan oleh syarikat itu adalah untuk melatih sistem kecerdasan buatan seperti ChatGPT Apabila mengurangkan data peribadi, kami berharap kecerdasan buatan kita memahami dunia dan bukannya individu. Syarikat itu tidak melanggar sebarang peraturan dan sangat berharap untuk bekerjasama dengan pihak berkuasa perlindungan data peribadi Itali.
Tidak dapat dinafikan bahawa kemunculan ChatGPT akan mencetuskan pusingan baharu revolusi maklumat dan memberi manfaat yang lebih baik kepada manusia. , tetapi mana-mana Semuanya mempunyai dua sisi Apabila masyarakat menantikan peluang yang belum pernah terjadi sebelumnya yang akan dibawa oleh ChatGPT kepada manusia, ia juga harus memikirkan risiko keselamatan yang akan dibawa oleh kemunculannya. Lagipun, dalam masa dua atau tiga bulan sahaja, risiko keselamatan yang timbul daripada penggunaan ChatGPT telah muncul satu demi satu.
ChatGPT sentiasa menampilkan dirinya sebagai imej "sempurna" selepas pelancarannya, tetapi apabila bilangan pengguna semakin meningkat , beberapa isu keselamatan mula muncul bahaya tersembunyi.
Pada awal Mac 2023, sesetengah pengguna mendedahkan bahawa rekod sembang orang lain dipaparkan dalam senarai sembang mereka Buat sementara waktu, ChatGPT membocorkan data pengguna dan menduduki senarai media sosial utama, akhirnya, CEO OpenAI syarikat induknya Sam... Altman terpaksa mengeluarkan tweet dengan segera untuk menjelaskan kepada pengguna bahawa BUG yang menyebabkan sejarah sembang ChatGPT pengguna dibocorkan hanyalah pepijat dalam pangkalan kod sumber terbuka.
Selepas kebocoran rekod sembang pengguna, walaupun OpenAI dengan mudah mengakui kepada media bahawa terdapat kelemahan keselamatan dalam ChatGPT dan segera pergi fungsi sejarah Sembang luar talian, tetapi telah ditekankan bahawa hanya tajuk sejarah sembang dibocorkan dan pengguna tidak dapat melihat kandungan sembang sebenar orang lain.
Berdasarkan maklumat yang didedahkan oleh OpenAI, kandungan perbualan pengguna akan disimpan secara automatik ke awan, dan terdapat kemungkinan dicuri oleh pihak ketiga Digabungkan dengan kebocoran rekod sembang sejarah ini, semakin ramai penyelidik keselamatan mula berfikir dengan serius Sama ada isu keselamatan maklumat dalam ChatGPT adalah tidak sengaja.
Satu gelombang demi gelombang. Minggu lalu, media Korea Selatan mendedahkan bahawa gergasi teknologi Samsung Electronics terdedah kepada tiga kebocoran data sulit dalaman kurang daripada 20 hari selepas memperkenalkan ChatGPT. (2 kes berkaitan dengan peralatan semikonduktor, dan 1 kes berkaitan dengan kandungan mesyuarat dalaman).
Dilaporkan bahawa maklumat sulit Samsung Electronics ini mungkin telah diimport ke dalam pangkalan data ChatGPT dan berisiko kebocoran pada bila-bila masa.
Butiran tiga insiden:
Pada 11 Mac tahun ini, Samsung Electronics meluluskan resolusi untuk membenarkan pekerja jabatan DS menggunakan ChatGPT, tetapi ChatGPT masih dilumpuhkan untuk pekerja jabatan pengalaman peranti DX. Akibatnya, kami menghadapi tiga insiden keselamatan yang tidak dijangka dalam masa dua puluh hari sahaja Ini menunjukkan bahawa keselamatan ChatGPT sememangnya wajar dipertimbangkan.
Samsung bukan satu-satunya syarikat tempat pekerja memuat naik data sulit korporat ke ChatGPT. Berdasarkan statistik Cyberhaven mengenai penggunaan ChatGPT oleh 1.6 juta pekerja, kira-kira 3.1% pekerja memuat naik terus data korporat dalaman ke ChatGPT untuk analisis bagi meningkatkan kecekapan kerja.
Sebilangan tokoh saintifik bersama-sama menggesa penggantungan penyelidikan pembangunan AI yang lebih berkuasaPada 29 Mac, waktu AS, termasuk bapa kecerdasan buatan, Jeffrey Hinton, CEO Tesla dan Twitter Elon Musk, pemenang Anugerah Turing Joshua Bengio, dll. Beribu-ribu pakar kecerdasan buatan dan eksekutif industri, termasuk syarikat , menandatangani surat terbuka bertajuk "Penggantungan Eksperimen Model Besar dalam AI" yang dikeluarkan oleh Future of Life Institute, sebuah organisasi bukan untung AS.
Dalam surat mereka, pakar kanan ini menyeru semua makmal kecerdasan buatan untuk menangguhkan pembangunan dan latihan sistem kecerdasan buatan yang lebih berkuasa selama sekurang-kurangnya setengah tahun dalam keadaan istimewa , kerajaan harus Campur Tangan dengan segera dan segera menggantung penyelidikan sistem AI.
Atas ialah kandungan terperinci ChatGPT Waterloo: Larangan akaun yang meluas diharamkan oleh Itali. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!