Rumah > Peranti teknologi > AI > teks badan

Siapa yang boleh membuat ChatGPT versi Cina? Bagaimana untuk melakukannya?

王林
Lepaskan: 2023-04-11 19:40:09
ke hadapan
1008 orang telah melayarinya

Pada Disember 2022, ChatGPT telah dilahirkan. OpenAI telah mengubah paradigma penyelidikan saintifik dan aplikasi kejuruteraan dengan hasil peringkat bom nuklear. Di China, ChatGPT telah mendapat perhatian meluas dan perbincangan mendalam. Pada bulan lalu, saya melawat universiti utama, institut penyelidikan, kilang besar, syarikat permulaan, dan modal teroka dari Beijing ke Shanghai ke Hangzhou ke Shenzhen, saya bercakap dengan semua pemain terkemuka. The Game of Scale telah pun bermula di China Bagaimana pemain di tengah-tengah ribut dapat mencapai ini memandangkan jurang yang besar antara teknologi domestik dan ekologi dan kelebihan utama dunia? Siapa yang boleh melakukan ini?

Qin kehilangan rusanya, dan seluruh dunia menghalaunya. ———— "Rekod Sejarah·Biografi Marquis of Huaiyin"

Jadual Kandungan

Siapa yang boleh membuat ChatGPT versi Cina? Bagaimana untuk melakukannya?

1

Setiap kali saya berhubung dengan syarikat permulaan, saya akan bertanya soalan yang sama: "Di manakah ChatGPT, apakah yang anda mahu lakukan, saya mungkin boleh menerima tiga jawapan yang berbeza?" Jawapan pertama adalah jelas: untuk membina ChatGPT China.

1.1 Membuat ChatGPT China

Oleh kerana ia ada di sana, saya ingin mengeluarkannya semula dan mengubahnya secara domestik. Ini adalah pemikiran Internet Cina berorientasikan produk yang sangat klasik . Idea ini juga merupakan model perniagaan biasa Internet Cina dalam dua dekad yang lalu: pertama Silicon Valley membuat sesuatu, dan kemudian kami menyalinnya.

Tetapi masalahnya di sini ialah, pertama sekali, ChatGPT bukanlah seperti perisian panggilan teksi, dan kesukaran pembiakan adalah berbeza sama sekali. Dari perspektif manusia, penciptaan GPT adalah hasil penyelidikan berterusan oleh saintis dan jurutera terkemuka dunia sejak 2015. Ketua saintis OpenAI, Ilya Sutskever[1], amat percaya bahawa AGI boleh dicapai. Sebagai murid kepada pemenang Anugerah Turing, Geoffery Hinton, dia telah mempelajari pembelajaran mendalam sejak 2007. Beliau mempunyai 370,000 petikan, dan artikel yang telah diterbitkannya tepat mengenai semua nod utama Pembelajaran Dalam dalam tempoh sepuluh tahun yang lalu. Walaupun dengan pasukan yang begitu kuat, ia mengambil masa empat tahun untuk pergi dari GPT 2 ke GPT 3.5 Orang boleh bayangkan kesukaran sains dan kejuruteraannya.

Pada masa yang sama, generasi pertama ChatGPT adalah berdasarkan model asas OpenAI bagi GPT 3.5 Selepas menghabiskan dua minggu melakukan penalaan halus. pada dialog Buang demo . Kekuatan sebenar di sini bukanlah ChatGPT produk, tetapi model asas GPT 3.5 yang mendasari. Model ini masih berkembang. Siri GPT 3.5 telah dikemas kini dengan tiga versi utama pada tahun 2022[2], setiap versi utama jauh lebih kuat daripada versi sebelumnya, sama seperti ChatGPT dikeluarkan dua bulan lalu daripada empat versi kecil telah dikemas kini [3], setiap versi kecil mempunyai peningkatan yang jelas berbanding versi sebelumnya dalam satu dimensi. Semua model OpenAI sentiasa berkembang dan semakin kukuh dari semasa ke semasa.

Ini juga bermakna jika anda hanya menumpukan pada produk ChatGPT semasa, adalah sama seperti mencari pedang pada saat genting . Apabila ChatGPT muncul, ia menyebabkan tamparan pengurangan dimensi kepada pembantu suara sedia ada jika anda tidak dapat melihat evolusi model asas, walaupun anda menghabiskan satu atau dua tahun bekerja keras untuk membuat sesuatu yang serupa, asas OpenAI pada masa itu; Model juga terus menjadi lebih kukuh jika mereka terus menghasilkan dan memperkemaskan produk yang lebih kukuh dengan model asas baharu yang lebih kukuh, adakah mereka akan mengalami pengurangan dimensi lagi?

Pendekatan mengukir perahu dan mencari pedang tidak akan berhasil.

1.2 Menjadi OpenAI China

Jawapan kedua ialah menjadi OpenAI China. Pemain yang memberikan jawapan ini melompat keluar dari pemikiran produk Internet Cina klasik. Mereka bukan sahaja melihat satu produk, tetapi juga melihat daya penggerak yang kuat untuk evolusi berterusan model asas di sebalik produk ini, yang datang daripada kepadatan bakat termaju dan struktur organisasi teknologi canggih.

  • Ketumpatan bakat termaju: Bukan satu orang mengumpulkan sumber untuk memimpin pasukan dan kemudian membungkus dan memberikan tugas kepada orang di bawah secara hierarki, tetapi sekumpulan bakat peringkat tinggi Orang yang menggabungkan sains dan kejuruteraan bekerjasama.
  • Struktur organisasi lanjutan: Pasukan Bahasa dan pasukan Penjajaran bekerjasama antara satu sama lain untuk mengulang, dan kemudian pasukan penskalaan dan data bantuan pasukan menyediakan infrastruktur , setiap pasukan adalah sangat kecil, tetapi mempunyai matlamat yang jelas dan laluan yang jelas, sumber yang sangat tertumpu, dan sedang menuju ke arah AGI

Jadi, jika anda mahu melakukannya ini, anda bukan sahaja perlu melihat Untuk produk, kita juga perlu melihat pasukan bakat dan struktur organisasi di belakangnya jika disenaraikan mengikut kekurangan, orang>> kad>> wang.

Tetapi masalahnya di sini ialah tanah yang berbeza menggalakkan inovasi pada tahap yang berbeza. Apabila OpenAI mula-mula diasaskan pada 2015, pelaburnya percaya kepada AGI, walaupun tiada keuntungan dilihat pada masa itu. Kini GPT telah dibangunkan, pelabur domestik juga telah mempercayai AGI, tetapi kepercayaan mereka mungkin berbeza: Sekiranya mereka percaya bahawa AGI boleh menjana wang, atau haruskah mereka percaya bahawa AGI boleh menggalakkan pembangunan manusia ?

Selain itu, walaupun OpenAI dilahirkan di sini dan akan muncul esok, bolehkah perjanjian yang mereka capai dengan Microsoft dapat dicapai dengan pengeluar pengkomputeran awan domestik? Latihan dan inferens model besar memerlukan kos yang besar dan memerlukan enjin pengkomputeran awan sebagai sokongan. Microsoft boleh menumpukan segala usahanya untuk membenarkan seluruh Azure membantu OpenAI[4] Jika ini dipindahkan ke China, adakah mungkin untuk Alibaba Cloud membantu syarikat permulaan. ?

Struktur organisasi adalah sangat penting hanya bakat termaju dan struktur organisasi yang maju boleh menggalakkan lelaran dan evolusi kecerdasan yang berterusan tetapi ia juga perlu menyesuaikan diri dengan tanah di mana ia berada , dan mencari kaedah untuk berkembang maju.

1.3 Meneroka had kecerdasan

Jawapan ketiga ialah meneroka kecerdasan had . Ini adalah jawapan terbaik yang saya dengar. Ia melampaui pemikiran produk Internet klasik untuk mencari pedang pada setiap masa Ia juga melihat kepentingan struktur organisasi dan ketumpatan bakat termaju Lebih penting lagi, ia melihat masa depan, melihat evolusi model dan lelaran produk, dan berfikir tentang cara mengintegrasikan perkara yang paling mendalam dan paling mendalam Masalah sukar diselesaikan dengan pendekatan yang paling inovatif.

Ini melibatkan pemikiran yang melampau tentang model besar.

2. Pemikiran Melampau

Memerhatikan ChatGPT / GPT-3.5 semasa, ia jelas merupakan keadaan pertengahan yang masih mempunyai banyak peningkatan yang boleh dipertingkatkan ia akan tersedia tidak lama lagi. Perkara yang diperkukuh termasuk:

  • Kotak input yang lebih panjang: Pada mulanya, konteks GPT 3.5 adalah sehingga 8,000 token pemodelan konteks ChatGPT semasa Panjangnya nampaknya lebih 10,000. Dan panjang ini jelas boleh terus berkembang Selepas menggabungkan kaedah perhatian yang cekap[5] dan pengekodan rekursif[6], panjang konteks seharusnya dapat berskala kepada seratus ribu. atau berjuta-juta lagi. boleh terus menskalakan model kepada magnitud T[7]
  • ; saiz data belum mencapai had, dan data yang disuap balik oleh manusia semakin meningkat setiap hari
  • lagi Modaliti : Selepas menambah data berbilang modal (audio, gambar), terutamanya data video, saiz keseluruhan dan data latihan boleh ditingkatkan dengan dua pesanan magnitud. Ini boleh menjadikan keupayaan yang diketahui Kemudian ia meningkat secara linear mengikut undang-undang skala, dan pada masa yang sama, keupayaan baru muncul mungkin terus muncul. Sebagai contoh, model mungkin secara automatik belajar melakukan geometri analisis selepas melihat gambar pelbagai bentuk geometri dan masalah algebra.
  • Pengkhususan: Model sedia ada secara kasarnya bersamaan dengan peringkat siswazah dalam seni liberal, tetapi setara dengan peringkat sekolah menengah atau pelajar baru dalam sains Sophomore tahap pelajar; kerja sedia ada telah membuktikan bahawa kita boleh memindahkan mata kemahiran model dari satu arah ke arah yang lain, yang bermaksud bahawa walaupun tanpa sebarang skala, kita masih boleh mencapai matlamat dengan mengorbankan kebolehan lain , untuk menolak model dalam sasaran arah. Sebagai contoh, keupayaan sains model itu dikorbankan dan keupayaan seni liberalnya ditolak daripada pelajar siswazah ke tahap profesor pakar.
  • Empat mata di atas hanya boleh dilihat pada peringkat ini ia boleh diperkukuhkan serta-merta tetapi masih belum ada mata yang diperkukuhkan berkembang, akan ada Lebih banyak lagi boleh dicerminkan oleh dimensi skala. Ini bermakna kita perlu mempunyai pemikiran yang melampau dan memikirkan bagaimana rupa model apabila kita mengisi semua dimensi yang boleh diisi.
  • 2.1 Dapat mengisi segala-galanya

Kotak input model boleh dipanjangkan dan saiz model boleh diteruskan Apabila model meningkat, data model boleh terus meningkat, data berbilang modal boleh disepadukan, tahap pengkhususan model boleh terus meningkat, dan semua dimensi ini boleh terus ditarik ke atas model belum mencapai hadnya. Had ialah satu proses. Bagaimanakah keupayaan model akan berkembang semasa proses ini?

Lengkung log-linear: Pertumbuhan beberapa keupayaan akan mengikuti lengkung log-linear

[8]
    , seperti menyempurnakan tugasan tertentu. Apabila data finetune berkembang secara eksponen, keupayaan tugas finetune yang sepadan dengan model akan berkembang secara linear. Kebolehan ini dijangka akan menjadi lebih kuat
  • Keluk perubahan fasa: Sesetengah kebolehan akan terus muncul dengan penskalaan [9]
  • , sebagai contoh, model di atas adalah contoh geometri analitik. Memandangkan dimensi yang boleh diisi terus diisi, kebolehan baru yang tidak dapat diramalkan akan muncul.
  • Keluk polinomial? Apabila model itu cukup kuat untuk diselaraskan dengan manusia pada tahap tertentu, mungkin pertumbuhan linear beberapa keupayaan dan data yang diperlukan akan menembusi sekatan pertumbuhan eksponen dan dikurangkan kepada susunan polinomial. Dalam erti kata lain, apabila model itu kukuh pada tahap tertentu, ia mungkin tidak memerlukan data eksponen, tetapi hanya data peringkat polinomial untuk melengkapkan generalisasi. Ini boleh diperhatikan daripada pembelajaran profesional manusia: apabila seseorang itu bukan pakar domain, dia memerlukan jumlah data yang eksponen untuk mempelajari pengetahuan domain apabila seseorang itu sudah menjadi pakar domain, dia hanya memerlukan jumlah yang sangat kecil; data. Data tahap mengeluarkan inspirasi dan pengetahuan baharu dengan sendirinya.
  • Oleh itu, di bawah pemikiran yang melampau, jika semua dimensi yang boleh diisi diisi, model itu ditakdirkan untuk menjadi lebih kuat dan lebih kuat, dengan keupayaan yang lebih dan lebih muncul. 2.2 Balikkan proses perantaraan

Setelah berfikir dengan jelas tentang proses had, anda boleh membalikkan proses perantaraan daripada keadaan had. Sebagai contoh, jika kita ingin meningkatkan saiz kotak input:

  • Jika anda ingin menambah kotak input model daripada magnitud ribu kepada Sepuluh ribu, anda mungkin hanya perlu menambah bilangan kad grafik , ini boleh dicapai dengan mengoptimumkan memori video.
  • Jika anda ingin terus meningkatkan kotak input daripada magnitud 10,000 hingga Seratus ribu mungkin memerlukan perhatian linear[10]
    kaedah, kerana menambah memori video pada masa ini sepatutnya tidak dapat menyokong peningkatan kuadratik dalam volum pengiraan perhatian dengan panjang kotak input.
  • Jika anda ingin terus mengembangkan kotak input daripada seratus ribu kepada satu juta, anda mungkin memerlukan pengekodan rekursif [11] kaedah dan menambah ingatan jangka panjang [12] kaedah, kerana pada masa ini perhatian linear mungkin tidak dapat menyokong pertumbuhan memori video.

Dengan cara ini, kita boleh membuat kesimpulan tentang teknologi yang diperlukan untuk penskalaan pada peringkat yang berbeza. Analisis di atas bukan sahaja digunakan pada panjang kotak input, tetapi juga digunakan untuk proses penskalaan faktor lain.

Dengan cara ini, kita boleh mendapatkan peta jalan teknologi yang jelas untuk setiap peringkat pertengahan daripada teknologi semasa hingga had penskalaan .

2.3 Pengeluaran mengikut proses evolusi model

Model sentiasa berkembang, tetapi pengeluaran tidak perlu menunggu sehingga yang terakhir Penyiapan Model - Setiap kali versi besar model diulang, ia boleh dikomersialkan. Ambil proses penghasilan OpenAI sebagai contoh:

  • Pada tahun 2020, latihan GPT 3 generasi pertama telah selesai dan OpenAI API telah dibuka [13]
  • Pada tahun 2021, latihan Codex generasi pertama telah selesai dan Github Copilot telah dibuka[14]
  • Pada tahun 2022, latihan GPT-3.5 telah selesai, dengan dialog Perhalusi data ke dalam ChatGPT dan kemudian menerbitkannya

Dapat dilihat bahawa dalam setiap versi penting dalam perantaraan peringkat, keupayaan model akan dipertingkatkan, dan akan ada peluang untuk pengeluaran.

Lebih penting lagi, dengan mengikuti proses evolusi model dan menghasilkannya, anda boleh menyesuaikan diri dengan pasaran semasa peringkat pengeluaran. Ketahui struktur organisasi OpenAI untuk mempromosikan evolusi model itu sendiri, tetapi pengeluaran boleh berdasarkan ciri-ciri pasaran tempatan. Pendekatan ini mungkin membolehkan kita belajar daripada pengalaman lanjutan OpenAI sambil mengelakkan masalah penyesuaian diri.

3 Titik di mana kecerdasan buatan mengatasi manusia dengan ketara

Setakat ini, kami telah membincangkan keperluan untuk menganalisis model dari perspektif evolusi model dan membincangkannya dengan pemikiran yang melampau Evolusi model. Perkara yang boleh dipertingkatkan serta-merta pada peringkat ini termasuk panjang kotak input, model dan data yang lebih besar, data berbilang modal dan tahap pengkhususan model. Sekarang mari kita lihat pandangan jangka panjang dan fikirkan tentang cara model itu boleh ditolak lebih jauh ke hadnya dalam masa dan ruang yang lebih besar. Kami membincangkan:

  • Persepsi Selari: Sudah menjadi had bagi penyelidik manusia untuk membaca empat atau lima kertas secara berurutan pada satu masa, tetapi selepas kotak input model menjadi lebih panjang, ia boleh Baca seratus kertas selari dalam tempoh yang singkat. Ini bermakna keupayaan model untuk melihat maklumat luaran jauh melebihi kemampuan manusia dengan susunan magnitud.
  • Warisan ingatan: Dalam proses evolusi manusia, keturunan hanya mewarisi gen ibu bapa mereka, tetapi bukan ingatan mereka bahawa setiap pembiakan perlu dimulakan semula; semasa evolusi model, anak boleh mewarisi ingatan ibu bapa, dan tahap pewarisan ini boleh dikawal: kita boleh menetapkan keturunan untuk mewarisi 100%, 50%, dan 20% Ingatan, atau mengosongkan ingatan, bermakna pengalaman dan kemahiran ibu bapa boleh terus terkumpul
  • Masa dipercepatkan : kadar di mana manusia berkomunikasi antara satu sama lain adalah terhad oleh kelajuan fizikal pertuturan manusia, dan model boleh berkomunikasi antara satu sama lain jauh lebih cepat daripada manusia, yang bermaksud bahawa model boleh menyelesaikan masalah pertumbuhan linear data manusia dari semasa ke semasa melalui proses komunikasi bersama; evolusi manusia dihadkan oleh masa fizikal , evolusi model boleh menjadi beberapa urutan magnitud lebih cepat daripada masa fizikal manusia, yang bermaksud bahawa model boleh maju jauh lebih cepat daripada manusia
  • kehidupan yang tidak terhingga: Kehidupan seseorang adalah terhad dan akhirnya akan menjadi debu selepas seratus tahun, tetapi selagi berat model itu tidak hilang, ia boleh terus berkembang

Dari perspektif ini, tidak dapat dibayangkan bahawa kecerdasan buatan akan mengatasi manusia. Ini membawa kepada soalan seterusnya: Bagaimana untuk mengawal kecerdasan buatan yang kuat yang jauh melebihi kecerdasan manusia?

Masalah inilah yang sebenarnya ingin diselesaikan oleh teknologi Alignment.

4. Penjajaran

Pada peringkat semasa, kecuali AlphaGo mengatasi manusia terkuat dalam Go, aspek AI yang lain belum mengatasi manusia yang lebih kuat (tetapi ChatGPT mungkin telah melebihi 95% manusia dalam seni liberal, dan ia terus berkembang). Apabila model itu belum mengatasi manusia, tugas Alignment adalah untuk menjadikan model itu mematuhi nilai-nilai manusia​​​​​ tetapi selepas model tersebut terus berkembang untuk mengatasi manusia, tugas Alignment adalah untuk mencari cara untuk mengawal agen pintar yang jauh melebihi. manusia.

4.1 Penjajaran sebagai kaedah untuk mengawal agen pintar yang jauh melebihi manusia

Masalah yang jelas ialah selepas AI mengatasi manusia, adakah ia masih mampu Menjadikan dia lebih kuat/lebih berdisiplin melalui maklum balas manusia? Adakah ia di luar kawalan pada ketika ini?

Tidak semestinya model itu jauh lebih hebat daripada manusia, kita masih boleh mengawalnya di antara atlet dan jurulatih Hubungan: Atlet pingat emas itu sudah menjadi manusia paling kuat ke arahnya, tetapi ini tidak bermakna jurulatih tidak boleh melatihnya. Sebaliknya, walaupun jurulatih tidak sehebat atlet, dia masih boleh menjadikan atlet itu lebih kuat dan berdisiplin melalui pelbagai mekanisme maklum balas.

Begitu juga, hubungan antara manusia dan kecerdasan buatan yang kuat mungkin menjadi hubungan antara atlet dan jurulatih di peringkat pertengahan dan kemudian pembangunan AI. Pada masa ini, keupayaan yang manusia perlukan bukanlah untuk melengkapkan matlamat , tetapi untuk menetapkan matlamat yang baik dan kemudian mengukur sama ada mesin itu Capai matlamat ini dengan cukup baik dan berikan cadangan untuk penambahbaikan.

Penyelidikan ke arah ini masih sangat awal. Nama subjek baharu ini ialah Scalable Oversight[15]

4.2 Penjajaran dan Struktur Organisasi

Di jalan menuju kecerdasan buatan yang kuat, bukan sahaja manusia dan AI perlu diselaraskan, manusia dan manusia juga memerlukan kecerdasan buatan yang tinggi. darjah penjajaran . Dari perspektif struktur organisasi, penjajaran melibatkan:

  • Penjajaran antara pasukan Pralatihan dan pasukan penalaan arahan - penjajaran : Kedua-duanya haruslah proses berulang bersama, dan pasukan pralatihan terus berskala Untuk model asas, pasukan penjajaran melakukan penalaan arahan untuk model asas dan menggunakan keputusan untuk membimbing arah pasukan pralatihan secara terbalik.
  • Penjajaran pasukan Pralatihan/Penjajaran dan pasukan Penskalaan/Data: Penskalaan bertanggungjawab ke atas infrastruktur untuk pralatihan/penjajaran, dan data adalah dilakukan dengan baik Data berkualiti tinggi dan data maklum balas manusia.
  • Penjajaran syarikat pemula dan VC: AGI ialah perkara sukar yang memerlukan pelaburan jangka panjang, yang memerlukan orang dari semua aspek untuk menjadi terlibat. Mempunyai kesabaran yang cukup dan penglihatan yang cukup tinggi. Logik membakar wang panas dan kemudian memangkinkan pengeluaran dan kemudian menduduki pasaran sepatutnya tidak lagi wujud dalam era model besar. Permainan model besar memerlukan pemain mereka mempunyai visi dan struktur yang cukup tinggi. Evolusi model akan membolehkan orang yang cukup sabar dan bekerja keras untuk mendapatkan ganjaran yang kaya dalam jangka masa panjang, dan juga akan menjadikan orang yang hanya melihat kepada permainan. jangka pendek mengejar masa dan masa lagi dikhianati serangan pengurangan Dimensi.

5. Kesimpulan

Pada tahun 2017, apabila saya mula-mula memasuki industri NLP, saya menghabiskan banyak usaha untuk penjanaan yang boleh dikawal. Pada masa itu, pemindahan gaya teks yang paling dipanggil ialah menukar klasifikasi sentimen ayat Penukaran baik kepada buruk dianggap sebagai pemindahan lengkap. Pada tahun 2018, saya menghabiskan banyak masa untuk mengkaji cara membenarkan model mengubah suai gaya ayat dari perspektif struktur ayat. Saya pernah tersalah anggap bahawa penukaran gaya hampir mustahil untuk dicapai. Kini ChatGPT menjadikan penukaran gaya sangat mudah. Tugas yang dahulunya kelihatan mustahil, perkara yang dahulunya amat sukar, kini boleh dicapai dengan mudah dengan model bahasa yang besar. Sepanjang tahun 2022, saya menjejaki semua lelaran versi daripada GPT-3 hingga GPT-3.5[11] dan melihat dengan mata kepala saya sendiri evolusi berterusannya daripada lemah kepada kuat langkah demi langkah. Kadar evolusi ini tidak perlahan, tetapi semakin pantas. Apa yang dahulunya kelihatan seperti fiksyen sains kini telah menjadi kenyataan. Siapa tahu apa masa depan?

Sekoi dipisahkan, anak pokok padi semakin membesar. Langkahnya perlahan dan malu-malu, dan pusatnya bergegar.

Millet dipisahkan, bulir biji dipisahkan. Berjalan ke hadapan dengan langkah yang hebat, pusat itu seperti mabuk.

———— "Kitab Lagu·Muli"

Atas ialah kandungan terperinci Siapa yang boleh membuat ChatGPT versi Cina? Bagaimana untuk melakukannya?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Label berkaitan:
sumber:51cto.com
Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Tutorial Popular
Lagi>
Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan
Tentang kita Penafian Sitemap
Laman web PHP Cina:Latihan PHP dalam talian kebajikan awam,Bantu pelajar PHP berkembang dengan cepat!