Anda lebih daripada sekadar titik data. Mekanisme keluar akan membantu anda mendapatkan semula privasi anda.
Gelombang terbaru perkembangan kecerdasan buatan memaksa banyak daripada kita untuk memikirkan semula aspek utama kehidupan. Sebagai contoh, artis digital kini perlu memberi tumpuan kepada melindungi kerja mereka dari laman web yang menjana imej, sementara guru perlu menangani situasi di mana sesetengah pelajar boleh mengeksport penulisan esei kepada chatgpt.
Tetapi kemunculan kecerdasan buatan juga membentangkan risiko privasi penting yang perlu diketahui oleh semua orang - walaupun anda tidak akan memikirkan apa yang difikirkan oleh teknologi ini seperti duyung.Buruh ketelusan
secara meluas, pembelajaran mesin -proses di mana sistem kecerdasan buatan menjadi lebih tepat - memerlukan banyak data. Lebih banyak data sistem itu, semakin tinggi ketepatannya. Platform kecerdasan buatan generatif seperti CHATGPT dan BARD Google, serta penjana imej Dall-E, mendapatkan sebahagian daripada data latihan melalui teknologi yang dipanggil Crawling: mereka mengimbas Internet untuk mengumpulkan maklumat awam yang berguna.
Walau bagaimanapun, kadang -kadang disebabkan oleh kesilapan atau kecuaian manusia, data peribadi yang tidak sepatutnya didedahkan, seperti fail syarikat sensitif, imej atau senarai log masuk, boleh memasuki bahagian Internet yang boleh diakses, yang boleh ditemui dengan sesiapa sahaja daripada pengendali carian Google mereka. Sebaik sahaja maklumat ini merangkak dan ditambah kepada dataset latihan AI, beberapa orang dapat memadamkannya.
"Orang harus dapat berkongsi dengan bebas," kata Ivana Bartoletti, Ketua Pegawai Privasi Global di Syarikat Teknologi India Wipro dan Penyelidik dalam mengakses keselamatan siber dan penguatkuasaan privasi di Sekolah Perniagaan Pampurin Virginia Tech. Akhirnya digunakan untuk melatih alat AI generasi, atau lebih buruk - imej mereka boleh digunakan untuk membuat palsu
Data merangkak hanya salah satu sumber yang berpotensi masalah dalam data latihan sistem kecerdasan buatan. Sumber lain ialah penggunaan data peribadi sekunder, kata Katharina Koerner, penyelidik kejuruteraan privasi kanan di Persatuan Profesional Privasi Antarabangsa. Ini berlaku apabila anda secara sukarela menyerahkan beberapa maklumat untuk tujuan tertentu, tetapi ia berakhir untuk tujuan lain yang anda tidak bersetuju. Perniagaan telah mengumpulkan maklumat pelanggan selama bertahun -tahun, termasuk alamat e -mel, butiran penghantaran, dan jenis produk yang mereka suka, tetapi pada masa lalu, mereka tidak dapat berbuat banyak dengan data tersebut. Hari ini, algoritma yang canggih dan platform kecerdasan buatan menyediakan cara mudah untuk memproses maklumat ini supaya mereka dapat mengetahui lebih lanjut mengenai corak tingkah laku orang. Ini boleh memberi manfaat kepada anda dengan memberikan anda hanya iklan dan maklumat yang anda mungkin benar -benar peduli, tetapi ia juga boleh mengehadkan bekalan produk dan meningkatkan harga berdasarkan kod pos anda. Memandangkan sesetengah syarikat sudah mempunyai banyak data yang disediakan oleh pelanggan mereka, sangat menggoda bagi perniagaan untuk berbuat demikian, kata Korner.
Dia menjelaskan: "AI memudahkan untuk mengekstrak corak berharga dari data yang ada yang dapat menyokong pengambilan keputusan masa depan, jadi sangat mudah bagi perniagaan untuk mendapatkan data peribadi apabila data tidak dikumpulkan untuk tujuan ini. Untuk pembelajaran mesin."
Ia tidak membantu pemaju untuk memadamkan maklumat peribadi anda secara selektif dari dataset latihan yang besar. Sudah tentu, mudah untuk memadam maklumat khusus (seperti tarikh lahir atau nombor keselamatan sosial anda (jangan memberikan butiran peribadi kepada platform AI generik). Tetapi sebagai contoh, melaksanakan permintaan penghapusan lengkap yang mematuhi Peraturan Perlindungan Data Umum Eropah adalah perkara lain dan mungkin cabaran yang paling kompleks untuk ditangani, kata Bartoletti.
[berkaitan: bagaimana menghentikan peralatan sekolah daripada berkongsi data dari keluarga anda]
Pemadaman kandungan selektif adalah sukar walaupun dalam sistem IT tradisional kerana struktur microservice yang kompleks (setiap bahagian berfungsi sebagai unit berasingan). Tetapi Korner berkata dalam konteks kecerdasan buatan, ini lebih sukar dan bahkan mustahil pada masa ini.
Itu kerana ia bukan sekadar mengklik pada "Ctrl F" dan memadam semua data dengan nama seseorang - memadam data seseorang memerlukan program mahal yang melatih semula keseluruhan model dari awal, jelasnya.
Sistem AI yang baik dapat memberikan jumlah analisis yang luar biasa, termasuk pengiktirafan corak yang membantu pengguna memahami tingkah laku orang. Tetapi ia bukan hanya kerana kelebihan teknologi - itu kerana orang cenderung bertindak dengan cara yang boleh diramal. Aspek khusus sifat manusia ini membolehkan sistem AI berfungsi dengan baik tanpa perlu mengetahui banyak maklumat khusus mengenai anda. Kerana apabila sudah cukup mengenali seseorang seperti anda, apa gunanya mengetahui anda?
Brenda Leong, rakan kongsi di BNH.AI, firma undang -undang yang memberi tumpuan kepada audit dan risiko kecerdasan buatan di Washington, D.C., berkata: "Kami telah tiba di beberapa maklumat yang paling sedikit yang hanya memerlukan tiga untuk pergi. Potongan data tentang seseorang, yang mudah diperolehi -mereka akan segera diserap ke dalam sistem ramalan.
Ini meninggalkan kita dengan sedikit kebebasan kerana walaupun mereka yang telah bekerja untuk melindungi privasi mereka selama bertahun -tahun akan membuat keputusan dan cadangan untuk mereka. Ini mungkin membuat mereka merasa bahawa semua usaha mereka telah sia -sia.
Liang meneruskan: "Walaupun ini adalah cara yang bermanfaat bagi saya, seperti memberi saya pinjaman yang sesuai dengan tahap pendapatan saya, atau peluang yang saya benar -benar berminat ia untuk saya dalam keadaan. "
Menggunakan data besar untuk mengklasifikasikan seluruh penduduk tanpa sebarang nuansa -untuk outlier dan pengecualian -kita semua tahu bahawa kehidupan penuh dengan ini. Syaitan berada dalam butiran, tetapi juga menerapkan kesimpulan umum untuk keadaan khas, perkara -perkara boleh menjadi sangat buruk.
Satu lagi cabaran utama ialah bagaimana untuk menanamkan keadilan dalam membuat keputusan algoritma-terutama apabila kesimpulan model AI mungkin berdasarkan data yang salah, ketinggalan zaman atau tidak lengkap. Adalah diketahui bahawa sistem kecerdasan buatan dapat mengekalkan kecenderungan pencipta manusia mereka, kadang -kadang dengan akibat yang mengerikan bagi seluruh masyarakat.
Oleh kerana lebih banyak syarikat bergantung kepada algoritma untuk membantu mereka mengisi jawatan atau menentukan profil risiko pemandu, data kami lebih cenderung digunakan terhadap kepentingan kita sendiri. Anda mungkin satu hari akan dirugikan oleh keputusan, cadangan atau ramalan automatik yang dibuat oleh sistem ini dengan sedikit untuk tidak ada jalan keluar.
[berkaitan: senjata autonomi boleh membuat kesilapan yang serius dalam peperangan]
Ini juga merupakan masalah apabila ramalan atau label ini menjadi fakta di mata algoritma kecerdasan buatan yang tidak dapat membezakan antara yang benar dan palsu. Untuk kecerdasan buatan moden, segala -galanya adalah data, sama ada data peribadi, data awam, data faktual atau data fiktif sepenuhnya.
Sama seperti kehadiran internet anda sama kuatnya dengan kata laluan anda yang paling lemah, integrasi alat AI yang besar dengan platform lain juga menyediakan penyerang dengan lebih banyak mata yang prying untuk cuba ketika cuba mengakses data peribadi. Jangan terkejut jika anda mendapati sebahagian daripada mereka tidak memenuhi piawaian dari segi keselamatan.
Ini bahkan tidak mengambil kira semua syarikat dan agensi kerajaan yang mengumpul data anda tanpa pengetahuan anda. Fikirkan tentang kamera pengawasan berhampiran rumah anda, menjejaki perisian pengenalan wajah anda di sekitar tempat konsert, anak -anak yang memakai GoPros berjalan di sekitar taman tempatan anda, dan juga orang yang cuba menjadi popular di Tiktok.
Lebih banyak orang dan platform memproses data anda, semakin besar kemungkinan kesilapan. Ruang yang lebih besar untuk kesilapan bermakna maklumat anda lebih cenderung bocor ke Internet, di mana ia mudah merangkak ke dalam dataset latihan model AI. Seperti yang disebutkan di atas, ini sangat sukar untuk dibatalkan.
Berita buruk adalah bahawa tidak ada yang dapat anda lakukan pada masa ini - tidak dapat anda menyelesaikan ancaman keselamatan yang berpotensi yang diperolehi dari dataset latihan AI yang mengandungi maklumat anda, dan tidak dapat menyelesaikan sistem ramalan yang mungkin Mencegah anda mendapatkan pekerjaan ideal anda. Pada masa ini, pendekatan terbaik kami adalah memerlukan pengawasan.
EU telah meluluskan draf pertama Akta Perisikan Buatan, yang akan mengawal bagaimana syarikat dan kerajaan menggunakan teknologi berdasarkan tahap risiko yang boleh diterima. Sementara itu, Presiden A.S. Joe Biden telah membiayai pembangunan teknologi Etika dan adil AI melalui perintah eksekutif, tetapi Kongres tidak meluluskan sebarang undang -undang untuk melindungi privasi warga A.S. dari segi platform AI. Senat telah mengadakan pendengaran untuk mengetahui tentang teknologi, tetapi ia tidak dekat dengan membuat rang undang -undang persekutuan.
Dalam proses kerja kerajaan, anda boleh dan harus menganjurkan peraturan privasi termasuk platform kecerdasan buatan dan melindungi pengguna daripada tidak memproses data mereka. Mempunyai perbualan yang bermakna dengan orang -orang di sekeliling anda tentang perkembangan AI, pastikan anda memahami kedudukan wakil anda mengenai peraturan privasi persekutuan dan mengundi bagi mereka yang paling peduli terhadap kepentingan anda.
Baca lebih banyak cerita POPSCI.
Atas ialah kandungan terperinci The Opt Out: 4 kebimbangan privasi pada usia AI. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!