Planner |. Bill Gates, Nadella dari Microsoft, Musk dari Tesla, Robin Li, Hongyi Zhou, Zhang Chaoyang dari China, dan juga Zheng Yuanjie, seorang pengarang yang tidak berada dalam lingkungan teknologi, telah mula percaya bahawa "penulis mungkin menganggur pada masa hadapan " kerana kemunculan ChatGPT. "Ya. Untuk contoh lain, Brin, bos Google yang sudah bersara, berasa cemas, bekas pengasas bersama Meituan, Wang Huiwen, juga keluar semula, menyiarkan jawatan wira untuk merekrut bakat AI dan mencipta OpenAI Cina.
AI Generatif, yang diwakili oleh ChatGPT dan DALL-E, menulis teks yang penuh dengan butiran, idea dan pengetahuan yang kaya dalam siri gaya yang mempesonakan, mengeluarkan jawapan dan karya seni yang Cantik. Artifak yang terhasil sangat pelbagai dan unik sehingga sukar untuk mempercayai ia berasal dari mesin.
Sehinggakan sesetengah pemerhati percaya bahawa AI baharu ini akhirnya telah melepasi ambang ujian Turing. Dalam kata-kata beberapa: ambang tidak sedikit melebihi, tetapi ditiup berkeping-keping. Seni AI ini sangat bagus sehingga "kumpulan orang lain sudah berada di ambang pengangguran."
Walau bagaimanapun, selepas lebih sebulan penapaian, rasa hairan orang ramai terhadap AI semakin pudar, dan "halo bintang asal" AI generatif juga beransur-ansur hilang. Sebagai contoh, beberapa pemerhati bertanya soalan dengan cara yang betul, manakala ChatGpt "meludah" sesuatu yang bodoh atau salah.
Sebagai contoh lain, sesetengah orang menggunakan bom logik lama yang popular dalam kelas seni sekolah rendah, meminta untuk mengambil gambar matahari pada waktu malam atau beruang kutub dalam ribut salji. Yang lain bertanya soalan orang yang tidak dikenali, melihat had kesedaran konteks AI.
Artikel ini meringkaskan "Sepuluh Dosa" AI generatif. Tuduhan ini mungkin berbunyi seperti anggur masam (saya juga cemburu dengan kuasa AI. Jika dibiarkan mesin mengambil alih, saya juga akan kehilangan pekerjaan saya, haha~) tetapi ia bertujuan untuk menjadi peringatan, bukan untuk memburuk-burukkan.
1. Plagiarisme lebih sukar dikesan
Sudah tentu, manusia juga belajar melalui peniruan, tetapi dalam beberapa kes, jenis "mengambil" dan "meminjam" AI ini sangat jelas sehingga membuatkan seorang guru sekolah rendah begitu marah kerana dia tidak dapat mengajar pelajarnya. Kandungan yang dijana AI ini terdiri daripada sejumlah besar teks yang dipersembahkan lebih kurang verbatim. Walau bagaimanapun, kadangkala terdapat doping atau sintesis yang mencukupi sehingga sekumpulan profesor universiti mungkin menghadapi masalah untuk mengesan sumbernya. Apapun, yang hilang ialah keunikan. Walaupun berkilauan seperti mesin ini, mereka tidak dapat menghasilkan sesuatu yang benar-benar baru.
2. Hak Cipta: Apabila kemanusiaan mengambil alih, litigasi meningkat
Undang-undang hak cipta ialah subjek yang kompleks, dan isu identiti undang-undang AI generatif akan mengambil masa bertahun-tahun untuk diselesaikan. Tetapi satu perkara tidak sukar untuk diramalkan: apabila kecerdasan buatan cukup baik untuk menggantikan pekerja, mereka yang diganti pasti akan menggunakan "masa lapang di rumah" mereka untuk memfailkan tuntutan mahkamah.
3. Manusia bertindak sebagai buruh tanpa gaji untuk model
4. Pengumpulan maklumat bukanlah penciptaan pengetahuan
Kecerdasan buatan nampaknya hanya meniru sisi kreativiti manusia yang menarik dan tidak dapat diramalkan, tetapi ia "serupa dalam bentuk tetapi tidak serupa dalam semangat" dan tidak boleh benar-benar melakukan ini. Pada masa yang sama, ketidakpastian adalah yang mendorong inovasi kreatif. Industri fesyen dan hiburan bukan sahaja ketagih kepada perubahan, tetapi juga ditakrifkan dengan "perubahan".
Malah, kedua-dua kecerdasan buatan dan kecerdasan manusia mempunyai bidang kepakaran mereka sendiri. Contohnya: Jika mesin terlatih boleh mencari resit lama yang betul dalam kotak digital yang dipenuhi dengan berbilion-bilion rekod, ia juga boleh belajar tentang orang seperti Aphra Behn (penulis abad ke-17 pertama yang terkenal dengan penulisan Semuanya seorang penyair seperti British). perempuan (yang mencari rezeki) tahu. Malah boleh dibayangkan bahawa mesin telah dibina untuk menguraikan maksud hieroglif Maya.
Apabila bercakap tentang kecerdasan, kecerdasan buatan pada asasnya adalah mekanikal dan berasaskan peraturan. Sebaik sahaja AI melalui satu set data latihan, ia mencipta model yang tidak benar-benar berubah. Sesetengah jurutera dan saintis data membayangkan melatih semula model AI secara beransur-ansur dari semasa ke semasa supaya mesin boleh belajar menyesuaikan diri.
Tetapi, dalam kebanyakan kes, ideanya adalah untuk mencipta set neuron kompleks yang mengekodkan beberapa pengetahuan dalam bentuk tetap. "Ketekalan" ini ada tempatnya, dan mungkin terpakai pada industri tertentu. Tetapi ia juga merupakan kelemahannya. Bahayanya ialah kognisinya akan sentiasa berada dalam "kitaran era" data latihannya.
Apa yang berlaku jika kita menjadi sangat bergantung pada AI generatif sehingga kita tidak lagi boleh mencipta bahan baharu untuk model latihan?
Data latihan untuk kecerdasan buatan perlu datang dari suatu tempat, dan kami tidak selalunya begitu pasti apa yang berlaku di dalam rangkaian saraf Apa yang akan muncul. Bagaimana jika AI membocorkan maklumat peribadi daripada data latihannya?
Lebih teruk lagi, mengunci AI adalah lebih sukar kerana ia direka bentuk untuk menjadi sangat fleksibel. Pangkalan data perhubungan boleh menyekat akses kepada jadual tertentu dengan maklumat peribadi. Walau bagaimanapun, AI boleh membuat pertanyaan dalam berpuluh-puluh cara yang berbeza. Penyerang akan cepat belajar cara bertanya soalan yang betul dengan cara yang betul untuk mendapatkan data sensitif yang mereka inginkan.
Sebagai contoh, jika penyerang mengintai lokasi aset, AI juga boleh digunakan untuk meminta latitud dan longitud. Penyerang yang bijak mungkin bertanyakan saat tepat matahari akan terbit di lokasi tersebut beberapa minggu kemudian. AI yang teliti akan melakukan yang terbaik untuk memberikan jawapan. Bagaimana untuk mengajar kecerdasan buatan untuk melindungi data peribadi juga merupakan masalah yang sukar.
Sejak era kerangka utama, komuniti teknologi telah mencipta konsep "Sampah Masuk, Sampah Keluar" (GIGO), juga dikenali sebagai GIGO Biarkan orang ramai melihat inti masalah komputer. Banyak masalah dengan AI datang daripada data latihan yang lemah. Jika set data tidak tepat atau berat sebelah, keputusan akan mencerminkan perkara ini.
Perkakasan teras AI generatif secara teorinya dipacu logik, tetapi manusia yang membina dan melatih mesin tidak. Pendapat pra-kehakiman dan berat sebelah gabungan politik telah ditunjukkan untuk diperkenalkan ke dalam model AI. Mungkin seseorang menggunakan data berat sebelah untuk mencipta model. Mungkin mereka menambah semacam korpus latihan untuk menghalang model daripada menjawab soalan panas tertentu. Mungkin mereka memasukkan jawapan berwayar dan kemudian ia menjadi sukar untuk dikesan.
Kecerdasan buatan sememangnya alat yang baik, tetapi ini juga bermakna terdapat 10,000 cara untuk orang yang mempunyai motif tersembunyi untuk menjadikan AI pembawa kepercayaan berbahaya yang sangat baik.
Berikut adalah contoh pinjaman pembelian rumah asing. Dalam kes ini, sistem AI yang digunakan untuk menilai bakal penyewa bergantung pada rekod mahkamah dan set data lain, yang kebanyakannya mempunyai berat sebelah sendiri, mencerminkan perkauman sistemik, seksisme, dan kebolehan, dan terkenal ralat. Walaupun sesetengah orang jelas mempunyai keupayaan untuk membayar sewa, mereka sering dinafikan pinjaman rumah kerana algoritma saringan penyewa menganggap mereka tidak layak atau tidak layak. Ini juga jawapan yang sering kita dengar daripada jurujual: Data/sistem/AI yang besar mendorong ini.
Gelagat ChatGPT selepas tersinggung
Kadang-kadang, tanpa disedari, kita manusia cenderung terjerumus ke dalam perangkap AI. Di titik buta pengetahuan, kita cenderung mempercayai AI. Jika AI memberitahu kami bahawa Henry VIII adalah raja yang membunuh isterinya, kami tidak akan mempersoalkannya kerana kami sendiri tidak mengetahui sejarah ini. Kita cenderung untuk menganggap bahawa kecerdasan buatan adalah betul, sama seperti apabila kita, sebagai ahli penonton di persidangan, melihat hos berkarisma melambai, kita juga lalai untuk mempercayai bahawa "orang di atas pentas lebih tahu daripada saya."
Masalah paling rumit bagi pengguna AI generatif ialah mengetahui bila AI berlaku salah. "Mesin tidak berbohong" sering menjadi mantra kami, tetapi sebenarnya ini tidak berlaku. Walaupun mesin tidak boleh berbohong seperti manusia, kesilapan yang mereka lakukan adalah lebih berbahaya.
Mereka boleh menulis perenggan data yang betul-betul tepat tanpa sesiapa mengetahui apa yang berlaku, dan kemudian beralih kepada spekulasi atau pembohongan. AI juga boleh melakukan seni "campuran kebenaran dan kepalsuan". Tetapi perbezaannya ialah pengedar kereta terpakai atau pemain poker sering tahu apabila mereka berbohong Kebanyakan orang boleh memberitahu di mana mereka berbohong, tetapi AI tidak boleh.
Kebolehulangan yang tidak terhingga bagi kandungan digital telah menyebabkan banyak model ekonomi yang dibina berdasarkan kekurangan menjadi masalah. AI Generatif akan terus memecahkan corak ini. AI Generatif akan menyebabkan beberapa penulis dan artis tidak bekerja, dan ia membatalkan banyak peraturan ekonomi yang kita semua jalani.
Jangan cuba jawab sendiri, biarkan AI generatif melakukannya sendiri. Ia mungkin mengembalikan jawapan yang menarik, unik dan pelik, dan kemungkinan besar ia akan mengikut garis "kekaburan"—jawapan yang agak misteri, di tepi betul dan salah, dan bukan ikan mahupun unggas.
Pautan asal: https://www.infoworld.com/article/3687211/10-reasons-to-worry-about-generative-ai.html
Atas ialah kandungan terperinci Lihat ChatGPT!. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!