Baru-baru ini, ChatGPT, alat sembang pintar yang dimiliki oleh syarikat Amerika OpenAI, telah menarik perhatian media sosial, menarik lebih daripada 10 bilion dolar AS dalam pelaburan dan mempromosikan ledakan besar dalam aplikasi kecerdasan buatan dalam pasaran modal menjadi tumpuan buat seketika.
Microsoft adalah yang pertama mengumumkan pelaburan AS$10 bilion dalam OpenAI, dan kemudian Amazon dan versi AS bagi "Today's Headlines" BuzzFeed mengumumkan bahawa mereka akan membolehkan ChatGPT dalam kerja harian mereka , Baidu juga mengumumkan pelancaran "versi Cina" chatbot ChatGPT pada bulan Mac. Selepas banyak syarikat teknologi menambah bahan api kepada api, ChatGPT serta-merta menarik perhatian global.
Data menunjukkan bahawa bilangan robot yang digunakan oleh Amazon meningkat dengan pesat, dengan peningkatan harian mencecah kira-kira 1,000. Selain itu, syarikat induk Facebook Meta juga merancang untuk melabur tambahan AS$4 bilion hingga AS$5 bilion dalam pusat data pada 2023, yang kesemuanya dijangka digunakan untuk kecerdasan buatan. Ketua Pegawai Eksekutif IBM Krishna berkata bahawa kecerdasan buatan dijangka menyumbang $16 trilion kepada ekonomi global menjelang 2030.
Dengan populariti ChatGPT, gergasi mungkin memulakan pusingan baharu pertempuran sengit dalam bidang kecerdasan buatan pada tahun 2023.
Walau bagaimanapun, apabila ChatGPT-3 meramalkan perkataan seterusnya, ia perlu melakukan berbilang pengiraan inferens, dengan itu menduduki banyak sumber dan menggunakan lebih banyak kuasa. Memandangkan infrastruktur pusat data berkembang untuk menyokong pertumbuhan pesat pengkomputeran awan, penstriman video dan rangkaian 5G, seni bina GPU dan CPUnya tidak dapat beroperasi dengan cekap untuk memenuhi keperluan pengkomputeran yang akan berlaku, yang menimbulkan masalah bagi pengendali pusat data hiperskala.
Latihan GPT3.5 menggunakan sistem pengkomputeran AI yang dibina khas Microsoft, kelompok rangkaian berprestasi tinggi yang terdiri daripada 10,000 GPU V100, dengan jumlah penggunaan kuasa pengkomputeran kira-kira 3640 PF-hari (iaitu. Jika ia dikira satu kuadrilion kali sesaat, ia mengambil masa 3640 hari untuk mengira). Tugas latihan kluster GPU berskala besar dan jangka panjang sedemikian meletakkan keperluan yang melampau pada prestasi, kebolehpercayaan, kos dan aspek lain asas sambungan rangkaian.
Sebagai contoh, Meta mengumumkan bahawa ia akan menggantung pengembangan pusat data di seluruh dunia dan mengkonfigurasi semula ladang pelayan ini untuk memenuhi keperluan pemprosesan data kecerdasan buatan.
Permintaan untuk pemprosesan data untuk platform kecerdasan buatan adalah besar Pencipta OpenAI ChatGPT melancarkan platform itu pada November tahun lepas .
Infrastruktur pusat data yang menyokong transformasi digital ini – akan disusun menjadi dua hemisfera atau cuping seperti otak manusia, dengan satu cuping perlu lebih kuat daripada yang lain. Satu hemisfera akan menyediakan apa yang dipanggil "latihan", kuasa pengkomputeran yang diperlukan untuk memproses sehingga 300B titik data untuk mencipta salad perkataan yang dijana oleh ChatGPT.
Kepak latihan memerlukan kuasa pengkomputeran yang berkuasa dan semikonduktor GPU yang canggih, tetapi pada masa ini diperlukan dalam kelompok pusat data yang menyokong perkhidmatan pengkomputeran awan dan rangkaian 5G Terdapat sangat sedikit sambungan.
Pada masa yang sama, infrastruktur yang tertumpu pada "melatih" setiap platform AI akan mewujudkan permintaan yang besar untuk elektrik, memerlukan pusat data terletak berhampiran gigawatt tenaga boleh diperbaharui, dipasang sistem penyejukan cecair, bersama-sama dengan kuasa sandaran yang direka semula dan sistem penjana, antara ciri reka bentuk baharu yang lain.
Platform Kepintaran Buatan Hemisfera otak yang lain, infrastruktur digital berfungsi lebih tinggi yang dikenali sebagai mod "inferens" menyokong platform "generatif" interaktif yang bertindak balas kepada soalan input atau Dalam beberapa saat arahan , pertanyaan diproses, dimasukkan ke dalam pangkalan data yang dimodelkan dan dijawab dengan sintaks manusia yang meyakinkan.
Walaupun rangkaian pusat data bersambung hiper hari ini, seperti kelompok pusat data terbesar di Amerika Utara, "pusat data" Virginia Utara juga mempunyai rangkaian gentian optik yang paling luas untuk menampung "inferens" otak kecerdasan buatan. lobus. Ketersambungan Tahap 1 diperlukan, tetapi kemudahan ini juga perlu dinaik taraf untuk memenuhi kapasiti pemprosesan yang besar yang diperlukan, dan mereka perlu lebih dekat dengan pencawang.
Selain itu, data daripada institusi penyelidikan menunjukkan bahawa pusat data telah menjadi pengguna tenaga terbesar di dunia, dan perkadaran jumlah penggunaan elektrik mereka akan meningkat daripada 3% pada 2017 kepada 4.5% pada 2025. Mengambil China sebagai contoh, penggunaan elektrik pusat data yang beroperasi di seluruh negara dijangka melebihi 400 bilion kWj pada 2030, menyumbang 4% daripada jumlah penggunaan elektrik negara.
Oleh itu, produk digital memerlukan tenaga untuk dibangunkan dan digunakan, dan ChatGPT tidak terkecuali dianggarkan bahawa pemprosesan inferens dalam kerja pembelajaran mesin menyumbang 80-90% daripada penggunaan kuasa pengkomputeran, kerana ChatGPT Sejak masuk dalam talian pada 30 November 2022, pelepasan karbon telah melebihi 814.61 tan.
Menurut pengiraan oleh organisasi profesional, dengan mengandaikan bahawa ChatGPT yang dihoskan pada awan Azure Microsoft mempunyai 1 juta pertanyaan pengguna setiap hari (kira-kira 29,167 jam sehari di bawah masa respons dan perbendaharaan kata tertentu), Dikira berdasarkan kuasa maksimum GPU A100 sebanyak 407W (watt), pelepasan karbon harian mencapai 3.82 tan, dan pelepasan karbon bulanan melebihi 100 tan. Hari ini, ChatGPT mempunyai lebih daripada 10 juta pengguna harian, dan pelepasan karbon sebenar adalah jauh lebih daripada 100 tan sebulan. Di samping itu, latihan model bahasa yang besar yang mengandungi 175 bilion parameter memerlukan puluhan ribu CPU/GPU untuk memasukkan data 24 jam sehari, menggunakan lebih kurang 1287MWh elektrik dan mengeluarkan lebih daripada 552 tan karbon dioksida.
Berdasarkan pelepasan karbon model bahasa besar ini, GPT-3, pendahulu ChatGPT, mempunyai pelepasan karbon terbesar. Dilaporkan bahawa purata Amerika menghasilkan 16.4 tan pelepasan karbon setahun, dan purata Denmark menghasilkan 11 tan pelepasan karbon setahun. Akibatnya, model ChatGPT dilatih untuk mengeluarkan lebih banyak pelepasan karbon daripada 50 orang Denmark setiap tahun.
Pembekal pengkomputeran awan juga menyedari bahawa pusat data menggunakan sejumlah besar tenaga elektrik dan telah mengambil langkah untuk meningkatkan kecekapan, seperti membina dan mengendalikan pusat data di Artik untuk memanfaatkan tenaga boleh diperbaharui dan keadaan penyejukan semula jadi. Walau bagaimanapun, ini tidak mencukupi untuk memenuhi pertumbuhan pesat aplikasi AI.
Makmal Kebangsaan Lawrence Berkeley di Amerika Syarikat mendapati dalam penyelidikan bahawa peningkatan dalam kecekapan pusat data telah mengawal pertumbuhan penggunaan tenaga sejak 20 tahun lalu, tetapi penyelidikan menunjukkan bahawa langkah kecekapan tenaga semasa mungkin tidak mencukupi untuk memenuhi keperluan pusat data masa hadapan.
Industri kecerdasan buatan kini berada pada titik perubahan yang kritikal. Kemajuan teknologi dalam AI generatif, pengecaman imej dan analitik data mendedahkan sambungan dan kegunaan unik untuk pembelajaran mesin, tetapi penyelesaian teknologi yang dapat memenuhi keperluan ini terlebih dahulu perlu dibina kerana, menurut Gartner, melainkan pilihan yang lebih mampan, sebaliknya menjelang 2025 , AI akan menggunakan lebih banyak tenaga daripada aktiviti manusia.
Atas ialah kandungan terperinci berjaga-jaga! Krisis penggunaan tenaga yang disebabkan oleh letupan ChatGPT menimbulkan cabaran besar kepada pengendali pusat data. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!