Jadual Kandungan
Claude 100k, Beerxiang!
Kemas kini blockbuster sebegini mesti ada pengalaman netizen.
Berjuta-juta token, bukan mimpi
Rumah Peranti teknologi AI Baca separuh daripada 'The Three-Body Problem' dalam sekali duduk! Pesaing terkuat GPT-4 tiba-tiba dinaik taraf kepada 100,000 token, dan demonstrasi kod kertas telah selesai

Baca separuh daripada 'The Three-Body Problem' dalam sekali duduk! Pesaing terkuat GPT-4 tiba-tiba dinaik taraf kepada 100,000 token, dan demonstrasi kod kertas telah selesai

May 17, 2023 pm 05:52 PM
ai chatgpt

Apabila GPT-4 32K masih dalam ujian dalaman, saingan kuat OpenAI secara langsung meningkatkan panjang konteks.

Baru hari ini, syarikat permulaan Anthropic mengumumkan bahawa Claude telah dapat menyokong panjang token konteks sebanyak 100K, iaitu kira-kira 75,000 perkataan.

Baca separuh daripada The Three-Body Problem dalam sekali duduk! Pesaing terkuat GPT-4 tiba-tiba dinaik taraf kepada 100,000 token, dan demonstrasi kod kertas telah selesai

Apakah konsep ini?

Selepas purata orang mengambil masa kira-kira 5 jam untuk membaca jumlah kandungan yang sama, dia masih perlu meluangkan lebih banyak masa untuk menghadam, menghafal dan menganalisis.

Bagi Claude, ia dilakukan dalam masa kurang daripada 1 minit.

Lemparkan keseluruhan buku "The Great Gatsby" kepadanya, yang mempunyai kira-kira 72k token, dan tukar satu ayat:

Mr ialah seorang jurutera perisian yang bekerja pada alatan pembelajaran mesin di Anthropic.

Boleh percaya tak? Claude hanya mengambil masa 22 saat untuk mencari ayat yang diubah.

Ramai netizen berkata dengan Claude 100K, GPT-4 32K di tangan mereka tidak lagi bagus.

Baca separuh daripada The Three-Body Problem dalam sekali duduk! Pesaing terkuat GPT-4 tiba-tiba dinaik taraf kepada 100,000 token, dan demonstrasi kod kertas telah selesai

Claude 100k, Beerxiang!

Beberapa ketika dahulu, dalam komuniti pembangun OpenAI, ramai orang membincangkan bahawa GPT-4 32K sedang dilancarkan.

Selain itu, ramai pengguna GPT-4 sudah boleh melihat pilihan GPT-4 32k di PlayGround mereka.

Baca separuh daripada The Three-Body Problem dalam sekali duduk! Pesaing terkuat GPT-4 tiba-tiba dinaik taraf kepada 100,000 token, dan demonstrasi kod kertas telah selesai

Netizen yang telah membuka kunci versi ini telah mendapat akses kepada ratusan titik data daripada pengguna yang menyahpasang HyperWrite memberitahunya dengan tepat apa penambahbaikan yang perlu dibuat seterusnya.

Dia memuji GPT-4 32k adalah pengurus produk terbaik di dunia.

Baca separuh daripada The Three-Body Problem dalam sekali duduk! Pesaing terkuat GPT-4 tiba-tiba dinaik taraf kepada 100,000 token, dan demonstrasi kod kertas telah selesai

32k sangat berkuasa, jadi bukankah ia lebih kuat dengan 100K.

Jelas sekali, saingan kuat OpenAI, Anthropic mengambil kesempatan terlebih dahulu.

Panjang konteks 100K token bermakna anda boleh memuat naik ratusan halaman analisis teks ke Claude. Dan tempoh perbualan telah dipanjangkan dengan sangat baik, sehingga berjam-jam atau bahkan berhari-hari.

Sudah tentu, selain membaca teks yang panjang, Claude juga boleh mendapatkan maklumat yang anda perlukan dengan cepat daripada dokumen.

Anda boleh menggunakan berbilang dokumen atau malah kandungan buku sebagai gesaan dan kemudian bertanya soalan.

Apabila anda menemui kertas kerja pada masa hadapan, walaupun panjang, minta Claude meringkaskannya. Ini hanyalah berita baik untuk junior yang membaca kertas itu.

Baca separuh daripada The Three-Body Problem dalam sekali duduk! Pesaing terkuat GPT-4 tiba-tiba dinaik taraf kepada 100,000 token, dan demonstrasi kod kertas telah selesai

Soalan komprehensif sebegini biasanya memerlukan pemahaman yang menyeluruh tentang kandungan banyak bahagian teks dalam menangani jenis ini daripada masalah, Claude boleh dikatakan lebih baik daripada kaedah berdasarkan carian vektor.

Claude juga boleh menjadi "pendamping kod" anda dan boleh membuat demonstrasi dalam beberapa minit.

Sebagai contoh, muat naik dokumen Langchain API 240 halaman, biarkan ia berdasarkan dokumen ini dan gunakan model bahasa Anthropic untuk membuat demonstrasi ringkas Langchain.

Anda juga boleh memberi Claude laporan tahunan syarikat setebal 85 halaman (10k).

Kemudian, minta untuk menyerlahkan item yang paling penting kepada bakal pelabur dan terangkan kepentingannya.

Selain itu, Claude 100k boleh mengendalikan kira-kira 6 jam audio.

Sebagai contoh, AssemblyAI menyalin kandungan podcast Carmack ke dalam 58k token teks, dan kemudian menggunakan Claude untuk meringkaskan dan menjawab soalan.

Baca separuh daripada The Three-Body Problem dalam sekali duduk! Pesaing terkuat GPT-4 tiba-tiba dinaik taraf kepada 100,000 token, dan demonstrasi kod kertas telah selesai

Baca separuh daripada The Three-Body Problem dalam sekali duduk! Pesaing terkuat GPT-4 tiba-tiba dinaik taraf kepada 100,000 token, dan demonstrasi kod kertas telah selesai

Akhir sekali, Claude meringkaskan perkara yang dia boleh lakukan Liputan boleh dikatakan sangat menyeluruh.

- Memahami, meringkaskan dan mentafsir dokumen padat seperti penyata kewangan, kertas penyelidikan, dll.

- Menganalisis risiko dan risiko strategik syarikat berdasarkan laporan tahunan Peluang

- Menilai kebaikan dan keburukan sesuatu perundangan

- Kenal pasti risiko, topik dan pelbagai bentuk hujah dalam dokumen undang-undang

- Baca ratusan halaman dokumentasi pembangunan dan jawab soalan teknikal

- Bina atau ubah suainya secara bijak dengan meletakkan keseluruhan pangkalan kod anda into context Untuk prototaip cepat

Sudah tentu, buat masa ini, Anthropic mengatakan bahawa konteks 100K masih merupakan ciri beta dan akan dicaj mengikut harga API standard dalam tempoh ini.

Baca separuh daripada The Three-Body Problem dalam sekali duduk! Pesaing terkuat GPT-4 tiba-tiba dinaik taraf kepada 100,000 token, dan demonstrasi kod kertas telah selesai

Laman web rasmi juga memberikan harga khusus:

Claude Instant

Gesaan: $0.00163 / 1K token

Penyiapan: $0.00551 / 1K token

Claude-v1

Gesaan: $0.01102 / 1K token

Penyiapan: $0.03268 / 🎜 >

Berbanding OpenAI, harganya sudah sangat berpatutan.

Menurut laman web rasmi OpenAI, GPT-4 32k Prompt berharga $0.06 dan Completion berharga $0.12.

Setara, anda perlu membelanjakan 5-6 kali ganda harga untuk menggesa model.

Netizen kata Claude 100k lebih laju dan murah berbanding GPT-4 32k.

Ujian sebenar oleh netizen

Kemas kini blockbuster sebegini mesti ada pengalaman netizen.

Sesetengah netizen berkata bahawa 100k adalah sangat luar biasa dan boleh mengendalikan berbilang kertas lengkap, asas kod yang sebahagiannya lengkap, dan juga novel 250 halaman.

Omong-omong, ramai netizen terlebih dahulu menguji Claude dan mendapati kesannya cukup bagus.

Pada mulanya, 100K hanya dalam API, dan model lalai yang digunakan oleh Claude masih 9K. Tetapi tidak lama lagi, antara muka aplikasi Claude juga menyokong 100K.

Baca separuh daripada The Three-Body Problem dalam sekali duduk! Pesaing terkuat GPT-4 tiba-tiba dinaik taraf kepada 100,000 token, dan demonstrasi kod kertas telah selesai

Seorang netizen menguji "Laporan Teknikal GPT-4" setebal 100 muka surat dan hasilnya hanya boleh digambarkan sebagai menakjubkan .

Baca separuh daripada The Three-Body Problem dalam sekali duduk! Pesaing terkuat GPT-4 tiba-tiba dinaik taraf kepada 100,000 token, dan demonstrasi kod kertas telah selesai

Seseorang juga terus menyuap "disqualification in the world" Dazai Osamu kepada Claude dan bertanya tentang plot cerita dalam Bahasa Inggeris. Jawapan yang tepat diberikan.

Baca separuh daripada The Three-Body Problem dalam sekali duduk! Pesaing terkuat GPT-4 tiba-tiba dinaik taraf kepada 100,000 token, dan demonstrasi kod kertas telah selesai

Baca separuh daripada The Three-Body Problem dalam sekali duduk! Pesaing terkuat GPT-4 tiba-tiba dinaik taraf kepada 100,000 token, dan demonstrasi kod kertas telah selesai

Pada masa yang sama, netizen ini melemparkan kod sumber lengkap Toolformer Zero yang dia bangunkan kepadanya, dan Claude adalah tepat Terangkan untuk apa ini digunakan.

Selain itu, Claude juga memuji modulariti kod dan memberikan cadangan untuk menambah beberapa ujian unit.

Baca separuh daripada The Three-Body Problem dalam sekali duduk! Pesaing terkuat GPT-4 tiba-tiba dinaik taraf kepada 100,000 token, dan demonstrasi kod kertas telah selesai

Baca separuh daripada The Three-Body Problem dalam sekali duduk! Pesaing terkuat GPT-4 tiba-tiba dinaik taraf kepada 100,000 token, dan demonstrasi kod kertas telah selesai

Buang puisi "Beowulf" Pergi dalam dan menganalisis watak Beowulf, yang juga sangat tepat.

Baca separuh daripada The Three-Body Problem dalam sekali duduk! Pesaing terkuat GPT-4 tiba-tiba dinaik taraf kepada 100,000 token, dan demonstrasi kod kertas telah selesai

Saintis Nvidia Jim Fan berkata bahawa ini adalah helah pembunuh yang dilemparkan oleh Anthropic. Perlumbaan senjata masa depan dalam konteks panjang semakin panas.

Baca separuh daripada The Three-Body Problem dalam sekali duduk! Pesaing terkuat GPT-4 tiba-tiba dinaik taraf kepada 100,000 token, dan demonstrasi kod kertas telah selesai

Berkenaan kepentingan menyokong 100k, netizen mengatakan bahawa seluar Thai adalah panas! Ini ialah demonstrasi yang baik mengapa teks panjang penting kepada LLM.

Baca separuh daripada The Three-Body Problem dalam sekali duduk! Pesaing terkuat GPT-4 tiba-tiba dinaik taraf kepada 100,000 token, dan demonstrasi kod kertas telah selesai

Ramai netizen turut membayangkan GPT-4.

Kelahiran Claude-100K menjadikan AnthropicAI secara rasminya pesaing sebenar OpenAI.

"Ramai orang masih menunggu dalam barisan untuk 32k GPT-4. Kali ini, Claude mengembangkan tetingkap konteks kepada 100,000 token, yang merupakan lonjakan besar.

Ini juga bermakna syarikat termasuk OpenAI dan Google perlu bersaing dalam bidang ini, yang merupakan kemenangan besar bagi pengguna 》

Baca separuh daripada The Three-Body Problem dalam sekali duduk! Pesaing terkuat GPT-4 tiba-tiba dinaik taraf kepada 100,000 token, dan demonstrasi kod kertas telah selesai

<.>

Sesetengah netizen mengeluh kerana zaman sudah terlalu pantas.

Google mengambil masa kurang daripada sehari untuk mengumumkan bahawa PaLM 2 cemerlang dalam tugasan inferens lanjutan, dan Anthropic’s Claude kini boleh mencerna 100,000 token dalam masa kurang daripada seminit. Kemajuan kecerdasan buatan sememangnya mengagumkan.

Baca separuh daripada The Three-Body Problem dalam sekali duduk! Pesaing terkuat GPT-4 tiba-tiba dinaik taraf kepada 100,000 token, dan demonstrasi kod kertas telah selesai

Baca separuh daripada The Three-Body Problem dalam sekali duduk! Pesaing terkuat GPT-4 tiba-tiba dinaik taraf kepada 100,000 token, dan demonstrasi kod kertas telah selesai

Walau bagaimanapun, jika anda memasukkan kurang token Pada 9K, Antropic nampaknya memanggil model sebelumnya.

Baca separuh daripada The Three-Body Problem dalam sekali duduk! Pesaing terkuat GPT-4 tiba-tiba dinaik taraf kepada 100,000 token, dan demonstrasi kod kertas telah selesai

Baca separuh daripada The Three-Body Problem dalam sekali duduk! Pesaing terkuat GPT-4 tiba-tiba dinaik taraf kepada 100,000 token, dan demonstrasi kod kertas telah selesai

Berjuta-juta token, bukan mimpi

Dalam beberapa tahun kebelakangan ini, Makmal Penyelidikan Berjerebu di Universiti Stanford telah terlibat dalam kerja penting, iaitu meningkatkan panjang jujukan model.

Pada pandangan mereka, ini akan membawa kepada era baharu model pembelajaran mesin asas.

Algoritma FlashAttention yang dicadangkan oleh penyelidik pada 2022 membuktikan kebolehlaksanaan 32k.

Baca separuh daripada The Three-Body Problem dalam sekali duduk! Pesaing terkuat GPT-4 tiba-tiba dinaik taraf kepada 100,000 token, dan demonstrasi kod kertas telah selesai

Malah Sam Altman berkata kami mahukan 32k token.

Baca separuh daripada The Three-Body Problem dalam sekali duduk! Pesaing terkuat GPT-4 tiba-tiba dinaik taraf kepada 100,000 token, dan demonstrasi kod kertas telah selesai

Malah, bukan sahaja 32k, malah 100k telah dicapai, dan satu juta token tidak jauh.

"Terlalu liar! Dalam beberapa tahun, adakah mungkin untuk menyokong panjang konteks token sebanyak 1 juta?" 🎜 >

Beberapa masa lalu, penyelidik dari DeepPavlov, AIRI, dan London Institute of Mathematical Sciences mengeluarkan laporan teknikal menggunakan Recurrent Memory Transformer (RMT) untuk meningkatkan panjang konteks berkesan bagi BERT. kepada "2 juta token yang belum pernah terjadi sebelumnya" sambil mengekalkan ketepatan perolehan memori yang tinggi. Baca separuh daripada The Three-Body Problem dalam sekali duduk! Pesaing terkuat GPT-4 tiba-tiba dinaik taraf kepada 100,000 token, dan demonstrasi kod kertas telah selesai

Baca separuh daripada The Three-Body Problem dalam sekali duduk! Pesaing terkuat GPT-4 tiba-tiba dinaik taraf kepada 100,000 token, dan demonstrasi kod kertas telah selesaiAlamat kertas: https://arxiv.org/abs/2304.11062

Kaedah ini boleh menyimpan dan memproses maklumat tempatan dan global, dan membiarkan maklumat mengalir antara segmen jujukan input dengan menggunakan gelung.

Walau bagaimanapun, walaupun RMT tidak meningkatkan penggunaan memori dan boleh dilanjutkan kepada panjang jujukan yang hampir tidak terhad, masih terdapat masalah pereputan ingatan dalam RNN dan masa inferens yang lebih lama diperlukan.

Malah, di sebalik RMT terdapat mekanisme ingatan serba baharu.

Kaedah operasi khusus adalah untuk menambah token memori khas pada urutan input atau output tanpa mengubah model Transformer asal, dan kemudian melatih model untuk mengawal operasi memori dan pemprosesan perwakilan jujukan .

Berbanding Transformer-XL, RMT memerlukan kurang memori dan boleh mengendalikan urutan tugasan yang lebih panjang.

Sudah tentu, Claude 100k sudah menjadi permulaan yang cukup besar sebelum akhirnya mencapai satu juta token.

Atas ialah kandungan terperinci Baca separuh daripada 'The Three-Body Problem' dalam sekali duduk! Pesaing terkuat GPT-4 tiba-tiba dinaik taraf kepada 100,000 token, dan demonstrasi kod kertas telah selesai. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

AI Hentai Generator

AI Hentai Generator

Menjana ai hentai secara percuma.

Artikel Panas

R.E.P.O. Kristal tenaga dijelaskan dan apa yang mereka lakukan (kristal kuning)
1 bulan yang lalu By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Tetapan grafik terbaik
1 bulan yang lalu By 尊渡假赌尊渡假赌尊渡假赌
Akan R.E.P.O. Ada Crossplay?
1 bulan yang lalu By 尊渡假赌尊渡假赌尊渡假赌

Alat panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Baris arahan shutdown centos Baris arahan shutdown centos Apr 14, 2025 pm 09:12 PM

Perintah shutdown CentOS adalah penutupan, dan sintaks adalah tutup [pilihan] [maklumat]. Pilihan termasuk: -h menghentikan sistem dengan segera; -P mematikan kuasa selepas penutupan; -r mulakan semula; -T Waktu Menunggu. Masa boleh ditentukan sebagai segera (sekarang), minit (minit), atau masa tertentu (HH: mm). Maklumat tambahan boleh dipaparkan dalam mesej sistem.

Apakah kaedah sandaran untuk gitlab di centos Apakah kaedah sandaran untuk gitlab di centos Apr 14, 2025 pm 05:33 PM

Dasar sandaran dan pemulihan Gitlab di bawah sistem CentOS untuk memastikan keselamatan data dan pemulihan, Gitlab pada CentOS menyediakan pelbagai kaedah sandaran. Artikel ini akan memperkenalkan beberapa kaedah sandaran biasa, parameter konfigurasi dan proses pemulihan secara terperinci untuk membantu anda menubuhkan strategi sandaran dan pemulihan GitLab lengkap. 1. Backup Manual Gunakan Gitlab-Rakegitlab: Backup: Buat Perintah untuk Melaksanakan Backup Manual. Perintah ini menyokong maklumat utama seperti repositori Gitlab, pangkalan data, pengguna, kumpulan pengguna, kunci, dan kebenaran. Fail sandaran lalai disimpan dalam direktori/var/opt/gitlab/sandaran. Anda boleh mengubah suai /etc /gitlab

Cara Memeriksa Konfigurasi HDFS CentOS Cara Memeriksa Konfigurasi HDFS CentOS Apr 14, 2025 pm 07:21 PM

Panduan Lengkap untuk Memeriksa Konfigurasi HDFS Dalam Sistem CentOS Artikel ini akan membimbing anda bagaimana untuk memeriksa konfigurasi dan menjalankan status HDFS secara berkesan pada sistem CentOS. Langkah -langkah berikut akan membantu anda memahami sepenuhnya persediaan dan operasi HDFS. Sahkan Pembolehubah Alam Sekitar Hadoop: Pertama, pastikan pembolehubah persekitaran Hadoop ditetapkan dengan betul. Di terminal, laksanakan arahan berikut untuk mengesahkan bahawa Hadoop dipasang dan dikonfigurasi dengan betul: Hadoopversion Semak fail konfigurasi HDFS: Fail konfigurasi teras HDFS terletak di/etc/hadoop/conf/direktori, di mana core-site.xml dan hdfs-site.xml adalah kritikal. gunakan

Apakah kaedah penalaan prestasi zookeeper di CentOS Apakah kaedah penalaan prestasi zookeeper di CentOS Apr 14, 2025 pm 03:18 PM

Penalaan prestasi zookeeper pada centOs boleh bermula dari pelbagai aspek, termasuk konfigurasi perkakasan, pengoptimuman sistem operasi, pelarasan parameter konfigurasi, pemantauan dan penyelenggaraan, dan lain -lain. Memori yang cukup: memperuntukkan sumber memori yang cukup untuk zookeeper untuk mengelakkan cakera kerap membaca dan menulis. CPU multi-teras: Gunakan CPU multi-teras untuk memastikan bahawa zookeeper dapat memprosesnya selari.

Cara Melatih Model Pytorch di CentOs Cara Melatih Model Pytorch di CentOs Apr 14, 2025 pm 03:03 PM

Latihan yang cekap model pytorch pada sistem CentOS memerlukan langkah -langkah, dan artikel ini akan memberikan panduan terperinci. 1. Penyediaan Persekitaran: Pemasangan Python dan Ketergantungan: Sistem CentOS biasanya mempamerkan python, tetapi versi mungkin lebih tua. Adalah disyorkan untuk menggunakan YUM atau DNF untuk memasang Python 3 dan menaik taraf PIP: Sudoyumupdatepython3 (atau SudodnfupdatePython3), pip3install-upgradepip. CUDA dan CUDNN (Percepatan GPU): Jika anda menggunakan Nvidiagpu, anda perlu memasang Cudatool

Bagaimana sokongan GPU untuk Pytorch di CentOS Bagaimana sokongan GPU untuk Pytorch di CentOS Apr 14, 2025 pm 06:48 PM

Membolehkan pecutan GPU pytorch pada sistem CentOS memerlukan pemasangan cuda, cudnn dan GPU versi pytorch. Langkah-langkah berikut akan membimbing anda melalui proses: Pemasangan CUDA dan CUDNN Tentukan keserasian versi CUDA: Gunakan perintah NVIDIA-SMI untuk melihat versi CUDA yang disokong oleh kad grafik NVIDIA anda. Sebagai contoh, kad grafik MX450 anda boleh menyokong CUDA11.1 atau lebih tinggi. Muat turun dan pasang Cudatoolkit: Lawati laman web rasmi Nvidiacudatoolkit dan muat turun dan pasang versi yang sepadan mengikut versi CUDA tertinggi yang disokong oleh kad grafik anda. Pasang Perpustakaan Cudnn:

Penjelasan terperinci mengenai Prinsip Docker Penjelasan terperinci mengenai Prinsip Docker Apr 14, 2025 pm 11:57 PM

Docker menggunakan ciri -ciri kernel Linux untuk menyediakan persekitaran berjalan yang cekap dan terpencil. Prinsip kerjanya adalah seperti berikut: 1. Cermin digunakan sebagai templat baca sahaja, yang mengandungi semua yang anda perlukan untuk menjalankan aplikasi; 2. Sistem Fail Kesatuan (Unionfs) menyusun pelbagai sistem fail, hanya menyimpan perbezaan, menjimatkan ruang dan mempercepatkan; 3. Daemon menguruskan cermin dan bekas, dan pelanggan menggunakannya untuk interaksi; 4. Ruang nama dan cgroups melaksanakan pengasingan kontena dan batasan sumber; 5. Pelbagai mod rangkaian menyokong interkoneksi kontena. Hanya dengan memahami konsep -konsep teras ini, anda boleh menggunakan Docker dengan lebih baik.

CentOS memasang MySQL CentOS memasang MySQL Apr 14, 2025 pm 08:09 PM

Memasang MySQL pada CentOS melibatkan langkah -langkah berikut: Menambah sumber MySQL YUM yang sesuai. Jalankan YUM Pasang Perintah MySQL-Server untuk memasang pelayan MySQL. Gunakan perintah mysql_secure_installation untuk membuat tetapan keselamatan, seperti menetapkan kata laluan pengguna root. Sesuaikan fail konfigurasi MySQL seperti yang diperlukan. Tune parameter MySQL dan mengoptimumkan pangkalan data untuk prestasi.

See all articles