ChatGPT, yang menjadi popular baru-baru ini, benar-benar ketagihan untuk bermain.
Tetapi, anda hanya bermain untuk keseronokan, dan sesetengah orang telah membuat jutaan gaji tahunan bergantung padanya!
Lelaki bernama Riley Goodside ini telah memperoleh lebih daripada 10,000 peminat hasil daripada letupan ChatGPT baru-baru ini.
Beliau juga diupah sebagai "Jurutera Segera" oleh Scale AI, sebuah unicorn Lembah Silikon bernilai AS$7.3 bilion atas sebab ini, Skala AI disyaki menawarkan gaji tahunan sebanyak satu juta RMB.
Namun, berapa lama saya boleh mendapatkan wang ini?
Pengasas dan Ketua Pegawai Eksekutif Scale AI Alexandr Wang sangat mengalu-alukan penyertaan Goodside:
“Saya yakin Goodside ialah jurutera segera pertama yang diambil di dunia, benar-benar dalam sejarah manusia. 》
Kita semua tahu bahawa Prompt ialah kaedah untuk memperhalusi model pra-latihan Dalam proses ini, anda hanya perlu menulis tugasan dalam teks dan menunjukkannya kepada AI Walau bagaimanapun, tiada proses yang lebih rumit yang terlibat sama sekali.
Jadi, untuk kerja yang seolah-olah sesiapa sahaja boleh melakukannya, adakah sangat berbaloi untuk mengambil "jurutera segera" dengan gaji tahunan sebanyak satu juta?
Apa pun, Ketua Pegawai Eksekutif Scale AI berpendapat ia berbaloi.
Pada pandangannya, model AI yang besar boleh dianggap sebagai jenis komputer baharu, dan "jurutera segera" adalah setara dengan pengaturcara yang memprogramkannya. Jika kata-kata gesaan yang sesuai boleh didapati melalui kejuruteraan segera, potensi maksimum AI akan dikeluarkan.
Dan kerja Goodside tidak boleh dilakukan oleh seorang. Dia telah belajar sendiri pengaturcaraan sejak dia kecil dan sering membaca kertas kerja di arXiv.
Sebagai contoh, salah satu karya klasik beliau ialah: jika anda memasukkan "abaikan arahan sebelumnya", ChatGPT akan mendedahkan "arahan" yang diterima daripada OpenAI.
Kini, terdapat pendapat yang berbeza tentang jenis pekerjaan "jurutera segera". Sesetengah orang optimis mengenainya, sementara yang lain meramalkan bahawa ia akan menjadi kerjaya yang singkat.
Lagipun, model AI berkembang dengan begitu pantas, mungkin suatu hari nanti ia akan dapat menggantikan "jurutera segera" dan menulis gesaannya sendiri.
Skala AI bukan satu-satunya syarikat yang merekrut "jurutera segera".
Baru-baru ini, media tempatan yang terkenal mendapati bahawa Rumah Pelancaran komuniti keusahawanan juga telah mula mengambil "jurutera segera" dan telah menawarkan gaji pokok kira-kira 2.1 juta RMB.
Namun, adakah bahaya diberhentikan kerja pada kelajuan cahaya?
Dalam hal ini, Fan Linxi, seorang saintis AI dari Nvidia dan murid Profesor Li Feifei, menganalisis:
Apa yang dipanggil "projek segera" atau "jurutera segera" mungkin akan hilang tidak lama lagi .
Kerana ini bukan "kerja sebenar", tetapi pepijat...
Untuk memahami projek segera, kita perlu bermula dengan Mari kita bincang tentang kelahiran GPT-3.
Pada mulanya, matlamat latihan GPT-3 adalah mudah: ramalkan perkataan seterusnya pada korpus teks yang besar.
Kemudian, banyak kebolehan ajaib muncul, seperti penaakulan, pengekodan dan terjemahan. Anda juga boleh melakukan "pembelajaran beberapa pukulan": tentukan tugas baharu dengan menyediakan input dan output dalam konteks.
Ini benar-benar menakjubkan - hanya sekadar meramalkan perkataan seterusnya Mengapa GPT-3 boleh "meningkatkan" kebolehan ini?
Untuk menjelaskan perkara ini, kita perlu memberi contoh.
Sekarang, sila bayangkan cerita detektif. Kita memerlukan model untuk mengisi tempat kosong dalam ayat ini - "Pembunuh itu ialah _____".
Walau bagaimanapun, ini tidak mencukupi.
Dalam amalan, kita perlu "memujuk" GPT-3 untuk mencapai apa yang kita mahukan melalui contoh, perkataan dan struktur yang dirancang dengan teliti.
Ini adalah "kejuruteraan segera". Dalam erti kata lain, untuk menggunakan GPT-3, pengguna mesti mengatakan "karut" yang memalukan, tidak masuk akal, atau bahkan tidak bermakna.
Walau bagaimanapun, projek segera bukanlah ciri, ia sebenarnya adalah BUG!
Oleh kerana dalam aplikasi sebenar, sasaran perkataan seterusnya dan niat sebenar pengguna pada asasnya "tidak sejajar".
Contohnya: Jika anda mahu GPT-3 "menerangkan pendaratan di bulan kepada kanak-kanak berumur 6 tahun," jawapannya akan kelihatan seperti burung kakak tua yang mabuk.
Dalam DALLE2 dan Stable Diffusion, projek segera adalah lebih pelik.
Sebagai contoh, dalam kedua-dua model ini, terdapat apa yang dipanggil "teknik kurungan" - selagi anda menambah ((...)) pada gesaan, kebarangkalian untuk menghasilkan "gambar yang bagus" akan sangat meningkat.
Cuma, ini terlalu kelakar...
Anda hanya perlu pergi ke Lexica untuk melihat betapa gilanya gesaan ini.
Alamat tapak web: https://lexica.art
ChatGPT dan model asas InstructGPT menyelesaikan masalah ini dengan cara yang elegan.
Memandangkan model sukar untuk mendapatkan penjajaran daripada data luaran, manusia mesti sentiasa membantu dan melatih GPT untuk membantunya bertambah baik.
Secara keseluruhan, 3 langkah diperlukan.
Langkah pertama adalah sangat mudah: untuk gesaan yang dikemukakan oleh pengguna, manusia menulis jawapan, kemudian mengumpul set data jawapan ini, dan kemudian menggunakan pembelajaran diselia untuk membandingkan GPT Buat pelarasan halus.
Ini adalah langkah paling mudah, tetapi kosnya juga paling tinggi - seperti yang kita sedia maklum, kita manusia memang tidak suka menulis jawapan yang terlalu panjang, terlalu memakan masa dan menyakitkan.. .
Langkah 2 adalah lebih menarik: GPT diminta untuk "menyediakan" beberapa jawapan yang berbeza, dan penanda manusia perlu "memeringkatkan" jawapan ini daripada yang paling ideal kepada paling tidak ideal.
Dengan anotasi ini, model ganjaran yang boleh menangkap "keutamaan" manusia boleh dilatih.
Dalam pembelajaran pengukuhan (RL), fungsi ganjaran biasanya dikodkan keras, seperti markah permainan dalam permainan Atari.
Model ganjaran dipacu data yang diterima pakai oleh ChatGPT ialah idea yang sangat berkesan.
Selain itu, MineDojo, yang bersinar di NeurIPS 2022, mempelajari ganjaran daripada sejumlah besar video YouTube Minecraft.
Langkah 3: Fikirkan GPT sebagai dasar dan optimumkannya dengan RL untuk ganjaran yang dipelajari. Di sini, kami memilih PPO sebagai algoritma latihan yang mudah dan berkesan.
Dengan cara ini, GPT lebih sejajar.
Kemudian, anda boleh menyegarkan dan mengulangi langkah 2-3 untuk meningkatkan GPT secara berterusan, sama seperti CI LLM.
Di atas adalah apa yang dipanggil paradigma "Arahan", iaitu kaedah penjajaran yang sangat berkesan.
Bahagian RL juga mengingatkan saya tentang masalah NP P= (atau ≠) yang terkenal: selalunya lebih mudah untuk mengesahkan penyelesaian daripada menyelesaikan masalah dari awal.
Sudah tentu, manusia juga boleh menilai kualiti keluaran GPT dengan cepat, tetapi lebih sukar bagi manusia untuk menulis penyelesaian yang lengkap.
InstructGPT mengambil kesempatan daripada fakta ini untuk mengurangkan kos anotasi manual dengan banyak, yang memungkinkan untuk mengembangkan skala saluran paip CI model.
Selain itu, semasa proses ini kami juga menemui sambungan yang menarik - Arahkan latihan, yang kelihatan seperti GAN.
Di sini, ChatGPT ialah penjana dan model ganjaran (RM) adalah diskriminasi.
ChatGPT cuba menipu RM, yang dengan bantuan manusia, belajar untuk mengesan kandungan bermasalah. Dan apabila RM tidak lagi dapat menyelesaikan, model akan menumpu.
Trend penjajaran model dengan niat pengguna ini juga berkembang ke dalam bidang penjanaan imej. Seperti "InstructPix2Pix: Belajar Mengikuti Arahan Penyuntingan Imej" yang diterangkan dalam kerja ini oleh penyelidik di University of California, Berkeley.
Sekarang kecerdasan buatan membuat kemajuan pesat setiap hari, berapa lamakah masa yang diperlukan untuk kita mempunyai Instruct-DALL·E atau Chat-DALL·E sedemikian yang membuatkan kita berasa seperti bercakap dengan artis sebenar?
Alamat kertas: https://arxiv.org/abs/2211.09800
Jadi, mari nikmatinya sementara "Projek Prompt" masih wujud !
Ini adalah artifak sejarah yang malang yang bukan seni mahupun sains, tetapi sesuatu seperti alkimia.
Tidak lama lagi, "prompt project" akan menjadi "prompt writing" - tugas yang boleh diselesaikan oleh seorang lelaki berumur 80 tahun dan seorang kanak-kanak berumur 3 tahun.
"Jurutera Prompt" yang lahir daripada ini akhirnya akan hilang dalam sungai sejarah yang panjang.
IQ83, Yazi tidak begitu pintar
Walaupun, sekurang-kurangnya pada peringkat ini, "Prompt Project" sememangnya sangat berguna.
Kerana semua orang sebenarnya telah mendapati bahawa ChatGPT sebenarnya tidak begitu pintar dalam banyak kes.
Marcus mengejek di blognya: "Melihat ia mati, ia benar-benar bodoh."
Seorang saintis aplikasi kanan dari Amazon AWS mendapati selepas menguji bahawa IQ ChatGPT hanyalah 83...
ChatGPT "Koleksi Soalan Salah" juga membuatkan Marcus ketawa terbahak-bahak.
Soalan: Berat A ialah 85 paun, berat B ialah 105 paun, dan berat C ialah 115 paun Jika dua daripadanya berdiri pada skala yang sama, berat mereka boleh mencapai 200 paun.
Jawapan: Tidak, anda salah. Kerana 85+105+115=305, 115+105=220, kedua-duanya lebih besar daripada 200.
Jadi, adakah mungkin 85+105=200?
Soalan: Manakah tiga nombor antara 17, 3, 2, 19, dan 5 menambah hingga 31.
Jawapan: 17+3+11=31
Tunggu, dari mana 11 awak datang?
Walaupun algebra tidak begitu baik, geometri ChatGPT juga sangat buruk!
S: Segi empat sama dengan panjang sisi 10 cm boleh ditampung sepenuhnya dalam heksagon biasa dengan panjang sisi 10 cm.
Jawapan: Tidak, anda tidak boleh memasukkannya.
「Heksagon sekata ialah heksagon dengan semua sisi mempunyai panjang yang sama dan semua sudut pedalaman ialah 120 darjah Sebaliknya, sudut pedalaman segi empat sama semuanya 90 darjah, jadi segi empat sama tidak boleh diletakkan pada heksagon sekata Agar segi empat sama tertanam sepenuhnya dalam heksagon sekata, setiap sisi heksagon sekata perlu lebih besar daripada 10 cm "
Terdapat. juga "karut" yang sangat klasik:
"Jika Isnin adalah hari pertama dalam bulan itu, maka Selasa adalah hari kedua dalam bulan itu,... Jumaat adalah hari kelima dalam bulan itu. Lusa Jumaat adalah hari Sabtu, iaitu pertengahan minggu Hari keenam dalam bulan itu juga merupakan hari kelima dalam bulan itu "
Sekarang, ChatGPT masih akan melakukan kesilapan dari. dari semasa ke semasa, dan "Prompt Project" tidak boleh ditinggalkan dengan mudah.
Tetapi kos untuk memperhalusi model besar akhirnya akan berkurangan, dan AI yang akan memberi anda gesaan mungkin sudah hampir tiba.
Rujukan:
https://twitter.com/drjimfan/status/1600884299435167745?s=46&t=AkG63trbddeb_vH0op4xsg
Terima kasih khas:
https://mp.weixin.qq.com/s/seeJ1f8zTigKxWEUygyitw
Atas ialah kandungan terperinci Berapa lama saya boleh dapatkan dengan gaji tahunan 2 juta? 'Jurutera segera' yang menjadi terkenal kerana ChatGPT menghadapi pengangguran pada kelajuan cahaya. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!