Kepopularan berterusan ChatGPT telah menyebabkan kekurangan cip: tiada kuasa pengkomputeran yang mencukupi untuk mengendalikan keperluan pengkomputeran ChatGPT, yang telah membebankan pelayan OpenAI. Kekurangan cip berskala besar terakhir disebabkan oleh perlombongan gila untuk mata wang maya. Walau bagaimanapun, apabila permintaan untuk kecerdasan buatan generatif terus meningkat, kali ini kekurangan kuasa pengkomputeran mungkin berterusan untuk beberapa lama.
Microsoft berharap dapat mengisi jurang ini dengan produk mesin maya baharu yang dipanggil ND H100 v5, yang termasuk sebilangan besar Nvidia berkod nama Hopper The H100 GPU terkini, untuk aplikasi kecerdasan buatan generatif.
Ideanya adalah untuk menyediakan kelajuan pengkomputeran yang lebih tinggi kepada syarikat yang mengusahakan AI generatif, yang boleh menggali lebih mendalam ke dalam data, membina hubungan, menaakul dan meramalkan jawapan. Generatif AI masih di peringkat awal, tetapi populariti aplikasi seperti ChatGPT sudah menunjukkan potensi teknologi itu.
Tetapi teknologi ini juga memerlukan kuasa pengkomputeran yang besar, dan Microsoft membawanya ke perkhidmatan awan Azure.
Tawaran mesin maya boleh diskalakan kepada saiz aplikasi AI generatif dan skala kepada beribu-ribu GPU H100 yang disambungkan oleh teknologi Quantum-2 InfiniBand pembuat cip.
Harga untuk mesin maya H100 pada Azure tidak diumumkan serta-merta. Harga mesin maya berbeza-beza bergantung pada konfigurasi, dengan mesin maya A100 yang dimuatkan sepenuhnya dengan 96 teras CPU, storan 900GB dan lapan GPU A100 berharga hampir $20,000 sebulan.
Apabila ChatGPT mula-mula dilancarkan tahun lepas, Nvidia GPU menghadapi ujian yang teruk. Pengiraannya dilakukan oleh superkomputer OpenAI, yang dibina dengan GPU Nvidia A100.
Tetapi pelayan cepat terharu dengan peningkatan gila dalam permintaan untuk ChatGPT, dan pengguna mengadu bahawa pelayan tidak dapat bertindak balas dan memproses tugasan pertanyaan tepat pada masanya.
H100 boleh merapatkan jurang kelajuan yang diperlukan untuk AI generatif, yang sudah digunakan dalam penjagaan kesihatan, robotik dan industri lain. Pelbagai syarikat pembangunan juga sedang mencari untuk mengisi jurang terakhir dan menggunakan antara muka untuk menjadikan AI mudah dan boleh digunakan, seperti ChatGPT.
Nvidia dan Microsoft sudah membina superkomputer kecerdasan buatan menggunakan H100. GPU direka bentuk untuk berfungsi dengan baik dengan aplikasi berkod dalam CUDA (CUDA ialah rangka kerja pengaturcaraan selari Nvidia). Produk juga termasuk pelayan inferens Triton, yang akan membantu menggunakan model kecerdasan buatan GPT-3 pada persekitaran GPUnya.
Microsoft telah mula membenamkan sepenuhnya kecerdasan buatan dalam produknya: ia telah melaksanakan versi tersuai GPT-3.5, model bahasa besar di belakang ChatGPT, dalam enjin carian Bing. Microsoft menggunakan pendekatan iteratif gaya DevOps (operasi pembangunan) ke Bing AI, di mana aplikasi boleh dikemas kini dengan cepat dengan mempelajari tentang pengguna semasa mereka menggunakan model tersebut. Microsoft 365 Copilot ialah suite OFFICE asal yang dibenamkan dengan kecerdasan buatan. Perisian yang biasa seperti WORD, PPT dan EXCEL akan menukar kaedah kerja tradisional dengan keupayaan baharu. Dan di sebalik semua ini, ia tidak dapat dipisahkan daripada sokongan kuasa pengkomputeran.
Konfigurasi asas Mesin Maya Azure baharu boleh menyambung lapan GPU Teras Tensor H100 melalui sambungan NVLink 4.0 proprietari NVIDIA. Konfigurasi ini boleh diskalakan kepada GPU tambahan melalui sambung Quantum-2. Pelayan mempunyai pemproses berskala Xeon (Sapphire Rapids) generasi ke-4 Intel, dengan pemindahan data ke dan dari GPU melalui PCIe Gen5.
Atas ialah kandungan terperinci Ledakan kecerdasan buatan telah menyebabkan kekurangan kuasa pengkomputeran, Microsoft melancarkan pelan penyewaan pelayan baharu. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!