Berita pada 5 April, dalam tempoh enam bulan lalu, alatan kecerdasan buatan (AI) baharu yang berkuasa telah berkembang pesat pada kadar yang membimbangkan, daripada dapat Daripada chatbots yang menyerupai perbualan orang sebenar, kepada bot pengekodan yang menjalankan perisian secara automatik, kepada penjana imej yang membuat sesuatu daripada udara nipis, apa yang dipanggil kecerdasan buatan generatif (AIGC) tiba-tiba menjadi di mana-mana dan semakin berkuasa.
Tetapi minggu lepas, tindak balas terhadap kegilaan AI ini mula muncul. Beribu-ribu pakar teknologi dan ahli akademik, diketuai oleh Tesla dan Ketua Pegawai Eksekutif Twitter Elon Musk, telah menandatangani surat terbuka amaran "risiko serius kepada manusia" dan menyeru agar moratorium pembangunan model bahasa AI Enam bulan.
Pada masa yang sama, sebuah organisasi bukan untung penyelidikan AI memfailkan aduan meminta Suruhanjaya Perdagangan Persekutuan (FTC) AS menyiasat OpenAI, syarikat yang mencipta ChatGPT dan menghentikan pengeluaran komersial GPT-4 selanjutnya perisian.
Agensi kawal selia Itali turut mengambil tindakan dan menyekat ChatGPT sepenuhnya atas alasan pelanggaran privasi data.
Mungkin boleh difahami bahawa sesetengah orang menggesa agar moratorium atau kelembapan penyelidikan AI. Aplikasi AI yang kelihatan luar biasa atau tidak dapat diduga hanya beberapa tahun yang lalu kini dengan pantas menyusup ke media sosial, sekolah, tempat kerja dan juga politik. Menghadapi perubahan yang memeningkan ini, sesetengah orang telah mengeluarkan ramalan pesimis, percaya bahawa AI akhirnya boleh membawa kepada kehancuran tamadun manusia.
Berita baiknya ialah gembar-gembur dan ketakutan tentang AI yang mahakuasa mungkin diperbesar-besarkan. Walaupun Bard Google dan Bing Microsoft mengagumkan, mereka masih jauh daripada menjadi "Skynet".
Berita buruknya ialah kebimbangan orang ramai tentang evolusi pesat AI telah menjadi kenyataan. Ini bukan kerana AI akan menjadi lebih pintar daripada manusia, tetapi kerana manusia sudah menggunakan AI untuk menindas, mengeksploitasi dan menipu satu sama lain dengan cara yang organisasi sedia ada tidak bersedia untuk menghadapinya. Tambahan pula, semakin orang yang lebih berkuasa menganggap AI sebagai, semakin besar kemungkinan mereka dan perniagaan mewakilkan tugas kepadanya yang tidak mampu dilakukannya.
Selain ramalan hari kiamat yang pesimis itu, kita boleh mendapatkan pemahaman awal tentang kesan AI pada masa hadapan yang boleh dijangka daripada dua laporan yang dikeluarkan minggu lepas. Laporan pertama dikeluarkan oleh bank pelaburan AS Goldman Sachs dan terutamanya menilai kesan AI ke atas ekonomi dan pasaran buruh, laporan kedua dikeluarkan oleh Europol dan memberi tumpuan kepada kemungkinan penyalahgunaan AI.
Dari perspektif ekonomi, arah aliran AI terkini memfokuskan pada mengautomasikan tugasan yang dahulunya hanya boleh dilakukan oleh manusia. Seperti mesin tenun elektrik, talian pemasangan berjentera dan ATM, AIGC berjanji untuk menyelesaikan jenis kerja tertentu dengan lebih murah dan lebih cekap daripada yang manusia boleh lakukan.
Tetapi lebih murah dan lebih cekap tidak selalunya bermakna lebih baik, kerana sesiapa sahaja yang berurusan dengan mesin daftar keluar sendiri kedai runcit, sistem jawapan telefon automatik atau chatbot perkhidmatan pelanggan boleh membuktikan. Tidak seperti gelombang automasi sebelumnya, AIGC mampu meniru manusia dan juga menyamar sebagai manusia dalam beberapa kes. Ini boleh membawa kepada penipuan yang meluas dan menipu majikan untuk berfikir bahawa AI boleh menggantikan pekerja manusia, walaupun ini tidak berlaku.
Analisis penyelidikan Goldman Sachs menganggarkan bahawa AIGC akan mengubah kira-kira 300 juta pekerjaan di seluruh dunia, mengakibatkan berpuluh juta pengangguran, tetapi juga akan menggalakkan pertumbuhan ekonomi yang ketara. Walau bagaimanapun, anggaran Goldman Sachs mungkin tidak tepat, lagipun, mereka mempunyai sejarah ralat ramalan. Pada 2016, bank itu meramalkan bahawa set kepala realiti maya boleh menjadi seperti telefon pintar di mana-mana.
Dalam laporan analisis AI Goldman Sachs, perkara yang paling menarik ialah mereka memecahkan pelbagai industri, iaitu, pekerjaan yang boleh dipertingkatkan oleh model bahasa dan pekerjaan yang boleh diganti sepenuhnya. Penyelidik Goldman Sachs meletakkan tugas kolar putih pada skala kesukaran dari 1 hingga 7, dengan Tahap 1 ialah "menyemak borang untuk kesempurnaan" dan tugas Tahap 4 yang boleh diautomasikan, seperti "memutuskan usul yang rumit di mahkamah ". ialah tingkatan 6. Kesimpulan yang dibuat daripada ini ialah sokongan pentadbiran dan pekerjaan paralegal berkemungkinan besar akan digantikan oleh AI, manakala pekerjaan seperti pengurusan dan pembangunan perisian akan menjadi lebih produktif.
Laporan itu secara optimistik meramalkan bahawa generasi AI ini akhirnya boleh meningkatkan KDNK global sebanyak 7% kerana perniagaan mendapat lebih banyak faedah daripada pekerja yang mempunyai kemahiran AI. Tetapi Goldman Sachs juga meramalkan bahawa dalam proses itu, kira-kira 7% rakyat Amerika akan mendapati bahawa kerjaya mereka akan dihapuskan, dan lebih ramai orang perlu mempelajari teknologi ini untuk mengekalkan pekerjaan. Dalam erti kata lain, walaupun AIGC membawa impak yang lebih positif, hasilnya boleh menyebabkan sejumlah besar pekerja kehilangan pekerjaan mereka, dan manusia di pejabat dan kehidupan seharian secara beransur-ansur akan digantikan oleh robot.
Pada masa yang sama, banyak syarikat sudah tidak sabar-sabar untuk mengambil jalan pintas dan mengautomasikan tugas yang tidak dapat dikendalikan oleh AI Sebagai contoh, laman web teknologi CNET menjana artikel kewangan yang penuh dengan ralat. Apabila masalah timbul dengan AI, kumpulan yang sudah terpinggir mungkin terjejas secara tidak seimbang. Walaupun terdapat keseronokan di sekitar ChatGPT dan seumpamanya, pembangun model bahasa besar hari ini belum lagi menangani isu set data berat sebelah yang telah membenamkan berat sebelah kaum ke dalam aplikasi AI seperti pengecaman muka dan algoritma penilaian risiko jenayah. Minggu lalu, seorang lelaki kulit hitam telah dipenjara sekali lagi kerana ketidakpadanan pengecaman muka.
Apa yang lebih membimbangkan ialah AIGC mungkin digunakan untuk menyebabkan kemudaratan yang disengajakan dalam beberapa kes. Laporan Europol memperincikan cara AIGC digunakan untuk membantu orang ramai melakukan jenayah, seperti penipuan dan serangan siber.
Sebagai contoh, chatbots dapat menjana gaya bahasa tertentu malah meniru suara orang tertentu, yang boleh menjadikan mereka alat yang berkuasa untuk penipuan pancingan data. Kelebihan model bahasa dalam menulis skrip perisian mungkin mendemokrasikan penjanaan kod berniat jahat. Mereka memberikan nasihat yang diperibadikan, kontekstual, langkah demi langkah dan boleh menjadi panduan untuk penjenayah yang ingin menceroboh rumah, memeras ugut seseorang atau membina bom paip. Kami telah melihat bagaimana imej sintetik boleh menyebarkan naratif palsu di media sosial, mencetuskan semula kebimbangan bahawa deepfakes boleh memesongkan kempen.
Perlu diambil perhatian bahawa perkara yang menjadikan model bahasa terdedah kepada penyalahgunaan bukan sahaja kecerdasan luas mereka, tetapi juga kelemahan asas mereka dalam pengetahuan. Chatbots terkemuka semasa dilatih untuk berdiam diri apabila mereka mengesan percubaan untuk menggunakannya untuk tujuan jahat. Tetapi seperti yang dinyatakan oleh Europol, "Perlindungan untuk menghalang ChatGPT daripada menyediakan kod yang berpotensi berniat jahat hanya berkesan jika model itu memahami perkara yang dilakukannya." Seperti yang ditunjukkan oleh banyak helah dan kelemahan yang didokumenkan, Kesedaran diri kekal sebagai salah satu kelemahan teknologi.
Memandangkan semua risiko ini, anda tidak perlu risau tentang senario kiamat yang akan menyaksikan kadar pembangunan AIGC menjadi perlahan, memberikan lebih banyak masa kepada masyarakat untuk menyesuaikan diri. OpenAI sendiri diasaskan sebagai bukan untung atas premis bahawa AI boleh dibina dengan cara yang lebih bertanggungjawab, tanpa tekanan untuk mencapai sasaran pendapatan suku tahunan.
Tetapi OpenAI kini mendahului dalam perlumbaan rapat, gergasi teknologi itu memberhentikan ahli etika AI mereka, dan kuda itu mungkin telah meninggalkan kandang. Seperti yang dinyatakan oleh pakar AI akademik, Sayash Kapoor dan Arvind Narayanan, pemacu utama inovasi dalam model bahasa sekarang bukanlah dorongan untuk model yang lebih besar, tetapi Ia mengenai penyepaduan model yang kami ada ke dalam pelbagai aplikasi dan alatan. Mereka berpendapat bahawa pengawal selia harus melihat alat AI dari perspektif keselamatan produk dan perlindungan pengguna, dan bukannya cuba mengekang AI seperti senjata nuklear.
Mungkin perkara yang paling penting dalam jangka pendek adalah untuk pakar teknologi, pemimpin perniagaan dan pengawal selia mengetepikan panik dan gembar-gembur serta memperoleh pemahaman yang lebih mendalam tentang kelebihan dan kekurangan AIGC, supaya mereka boleh menjadi lebih berhati-hati apabila mengamalkannya. Jika AI terus memainkan peranan, tidak kira apa yang berlaku, impaknya akan mengganggu. Tetapi melebihkan keupayaannya akan menjadikannya lebih berbahaya, tidak kurang.
Atas ialah kandungan terperinci Media AS: Jangan takut dengan kepintaran AI Perkara yang menakutkan ialah ia dipandang terlalu tinggi dan disalahgunakan.. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!