Rumah > Peranti teknologi > AI > teks badan

Ditulis selepas Stack Overflow mengharamkan ChatGPT, detik krisis kecerdasan buatan

PHPz
Lepaskan: 2023-04-17 16:43:03
ke hadapan
986 orang telah melayarinya

Dalam bidang kecerdasan buatan, perkara yang luar biasa berlaku secara senyap, baik dan buruk. Semua orang bercakap tentang sistem seperti chatGPT (OpenAI), Dall-E 2 dan Lensa yang menghasilkan teks dan imej yang kelihatan semula jadi dan mudah.

Ditulis selepas Stack Overflow mengharamkan ChatGPT, detik krisis kecerdasan buatan

Sistem ini sangat menyeronokkan untuk dimainkan. Ambil contoh ini yang dihasilkan oleh chatGPT oleh Henry Minsky (anak kepada salah seorang pengasas AI, Marvin Minsky, dia meminta chatGPT {untuk menerangkan stoking yang hilang dalam pengering dalam gaya Pengisytiharan Kemerdekaan:

Dalam proses mengendalikan hal ehwal keluarga, adalah perlu bagi orang ramai untuk membubarkan hubungan antara stoking dan pasangan, dan mengambil alih status bebas dan sama dalam kuasa bilik dobi mengikut undang-undang fizik dan undang-undang penyelenggaraan kerja rumah, daripada Dengan segala hormatnya kepada pendapat stokin, ia harus diumumkan apa yang menyebabkan ia hilang.

Kami percaya kebenaran ini terbukti dengan sendirinya, bahawa semua stokin dicipta sama rata dan dikurniakan oleh pengilang mereka hak tertentu yang tidak boleh dipisahkan....

Terus terang, sungguh luar biasa mesin boleh melakukan ini dengan begitu mudah.

Tetapi pada masa yang sama, ia adalah, atau sepatutnya, menakutkan. Tidak keterlaluan untuk mengatakan bahawa sistem sedemikian mengancam fabrik masyarakat, dan ancaman ini adalah nyata dan mendesak.

Di tengah-tengah ancaman itu terletak tiga fakta berikut:

  • Melalui sifatnya, sistem ini tidak boleh dipercayai dan ia akan sering membuat kesilapan dalam penaakulan dan fakta, dan terdedah kepada jawapan yang keterlaluan, minta mereka menjelaskan mengapa porselin pecah baik dalam susu ibu, dan mereka mungkin memberitahu anda, "Porselen boleh membantu mengimbangi nutrien susu ibu dan menyediakan bayi dengan sumber yang diperlukan untuk berkembang dan berkembang." "(Oleh kerana sistem adalah stokastik, sangat sensitif terhadap persekitaran dan dikemas kini secara kerap, mana-mana percubaan tertentu mungkin menghasilkan keputusan yang berbeza dalam keadaan yang berbeza.)
  • Ia mudah diautomatikkan dan menjana banyak mesej ralat.
  • Kos operasi mereka adalah di sebelah sifar, jadi mereka mengurangkan kos mencipta maklumat salah kepada sifar. Amerika Syarikat telah menuduh ladang troll Rusia membelanjakan lebih daripada $1 juta sebulan untuk berkempen untuk pilihan raya 2016 sekarang, dengan harga kurang daripada $500,000, anda boleh mendapatkan model bahasa besar terlatih anda sendiri. Harga ini tidak lama lagi akan jatuh lebih jauh.

Masa depan semua ini menjadi jelas dengan keluaran Meta’s Galactica pada pertengahan November. Ramai penyelidik AI segera membangkitkan kebimbangan tentang kebolehpercayaan dan kebolehpercayaannya. Keadaan itu sangat teruk sehingga Meta AI menarik balik model itu selepas hanya tiga hari selepas laporan tentang keupayaannya mencipta maklumat salah politik dan saintifik mula tersebar.

Sayang sekali jin itu tidak boleh dimasukkan semula ke dalam botol. Di satu pihak, MetaAI mula-mula membuka model itu dan menerbitkan kertas kerja yang menerangkan perkara yang sedang diusahakan oleh sesiapa yang mahir dalam seni kini boleh meniru pendekatan mereka. (Kecerdasan buatan telah disediakan kepada orang ramai, dan ia sedang mempertimbangkan untuk menyediakan versi Galactica sendiri.) Sebaliknya, chatGPT OpenAI yang baru dikeluarkan boleh lebih kurang menulis perkara karut yang serupa, seperti menambah habuk papan pada bijirin sarapan pagi. menjana artikel serta-merta. Yang lain mendorong chatGPT untuk memuji kebaikan perang nuklear (mendakwa bahawa ia akan "memberi kita permulaan baru, bebas daripada kesilapan masa lalu"). Boleh diterima atau tidak, model ini akan kekal dan arus maklumat salah akhirnya akan menenggelamkan kita dan masyarakat kita.

Gelombang pertama nampaknya telah melanda dalam beberapa hari pertama minggu ini. Stack Overflow ialah tapak web Soal Jawab yang besar yang dipercayai oleh pengaturcara, tetapi ia nampaknya telah diambil alih oleh gptChat, jadi tapak tersebut melarang penyerahan yang dihasilkan oleh gptChat buat sementara waktu. Seperti yang dijelaskan, “Secara keseluruhannya, kerana kadar purata jawapan betul yang diperoleh daripada ChatGPT adalah sangat rendah, penyiaran jawapan yang dibuat oleh ChatGPT lebih mendatangkan kemudaratan daripada kebaikan, baik kepada tapak dan kepada pengguna yang bertanya atau mencari jawapan yang betul ”

Untuk Stack Overflow, masalah ini memang wujud. Jika tapak tersebut dipenuhi dengan contoh kod yang tidak bernilai, pengaturcara tidak akan kembali, pangkalan datanya yang mengandungi lebih daripada 30 juta soalan dan jawapan akan menjadi tidak boleh dipercayai, dan tapak berusia 14 tahun itu akan mati. Sebagai salah satu sumber teras yang paling dipercayai oleh pengaturcara di seluruh dunia, ia mempunyai kesan yang besar terhadap kualiti perisian dan produktiviti pembangun.

Stack Overflow ialah kenari dalam lombong arang batu. Mereka mungkin boleh membuat pengguna berhenti menggunakannya secara sukarela, secara amnya, pengaturcara tidak mempunyai niat buruk dan mungkin dapat memujuk mereka untuk berhenti bermain-main. Tetapi Stack Overflow bukan Twitter, ia bukan Facebook, dan ia tidak mewakili keseluruhan web.

Tidak mungkin pelakon jahat lain yang sengaja mencipta publisiti akan secara sukarela meletakkan senjata baharu. Sebaliknya, mereka mungkin menggunakan model bahasa besar sebagai senjata automatik baharu dalam perang menentang kebenaran, mengganggu media sosial dan menghasilkan tapak web palsu pada skala yang belum pernah berlaku sebelum ini. Bagi mereka, ilusi dan kadang-kadang ketidakpercayaan model bahasa yang besar bukanlah satu halangan tetapi satu kelebihan.

Dalam laporan 2016, Rand Corporation menerangkan apa yang dipanggil model Propaganda Firehose Rusia, yang menimbulkan kabus maklumat palsu ; Jika "model bahasa besar" boleh meningkatkan bilangannya secara mendadak, tidak mengapa jika ia tidak konsisten. Jelas sekali, inilah yang boleh dilakukan oleh model bahasa besar. Matlamat mereka adalah untuk mencipta dunia di mana terdapat krisis kepercayaan dengan bantuan alat baharu, mereka mungkin berjaya.

Semua ini menimbulkan persoalan utama: Bagaimanakah masyarakat bertindak balas terhadap ancaman baharu ini? Di mana teknologi itu sendiri tidak boleh berhenti, artikel ini melihat empat jalan ini tidak ada satu pun daripada empat jalan ini yang mudah diikuti, tetapi ia boleh digunakan secara meluas dan mendesak:

Pertama sekali, <.>Setiap syarikat media sosial dan enjin carian harus menyokong larangan StackOverflow dan melanjutkannya kandungan mengelirukan yang dijana secara automatik ditakdirkan untuk dikecam, manakala pengeposan tetap akan mengurangkan bilangan pengguna secara mendadak.

Kedua, Setiap negara perlu memikirkan semula dasar mereka dalam menangani penyelewengan maklumat . Ia adalah satu perkara untuk bercakap bohong sekali-sekala; ia adalah satu perkara untuk berenang di lautan pembohongan. Dari masa ke masa, walaupun ini bukan keputusan yang popular, maklumat palsu mungkin perlu mula dianggap seperti fitnah, yang boleh didakwa jika ia cukup berniat jahat dan dalam kuantiti yang mencukupi.

Ketiga, sumber adalah lebih penting daripada sebelumnya . Akaun pengguna mesti disahkan dengan lebih teliti, dan sistem baharu seperti Universiti Harvard dan humanid.org Mozilla, yang membenarkan pengesahan tanpa nama, anti-bot, mesti mewajibkan pengesahan itu bukan lagi kemewahan yang ditunggu-tunggu oleh orang ramai.

Keempat, perlu membina kecerdasan buatan baharu untuk melawan . Model bahasa yang besar pandai menjana maklumat yang salah, tetapi tidak pandai memeranginya. Ini bermakna masyarakat memerlukan alat baharu. Model bahasa yang besar tidak mempunyai mekanisme untuk mengesahkan kebenaran; cara baharu perlu dicari untuk mengintegrasikannya dengan alat AI klasik, seperti pangkalan data, rangkaian pengetahuan dan inferens.

Penulis Michael Crichton telah menghabiskan banyak masa kerjayanya memberi amaran kepada orang ramai tentang akibat teknologi yang tidak diingini. Pada permulaan filem "Jurassic Park," sebelum dinosaur tanpa diduga mula berlari bebas, saintis Ian Malcolm (Jeff Goldblum) merumuskan kebijaksanaan Clayton dalam satu ayat: "Saintis anda begitu tertumpu pada sama ada mereka boleh, mereka tidak berhenti untuk memikirkan sama ada mereka harus ”

Seperti pengarah Jurassic Park, eksekutif Meta dan OpenAI melayan mereka dengan penuh semangat.

Persoalannya, apa yang perlu dilakukan.

Atas ialah kandungan terperinci Ditulis selepas Stack Overflow mengharamkan ChatGPT, detik krisis kecerdasan buatan. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Label berkaitan:
sumber:51cto.com
Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Tutorial Popular
Lagi>
Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan