Rumah > Peranti teknologi > AI > teks badan

Kad grafik NVIDIA RTX mempercepatkan inferens AI sebanyak 5 kali ganda! RTX PC dengan mudah mengendalikan model besar secara tempatan

王林
Lepaskan: 2023-11-17 23:05:43
ke hadapan
1118 orang telah melayarinya

Di Persidangan Teknologi Global Microsoft Iginte, Microsoft mengeluarkan satu siri model pengoptimuman berkaitan AI baharu dan sumber alat pembangunan, bertujuan untuk membantu pembangun menggunakan sepenuhnya prestasi perkakasan dan mengembangkan medan aplikasi AI

Terutama untuk NVIDIA, yang kini menduduki kedudukan dominan mutlak dalam bidang AI, Microsoft telah menghantar pakej hadiah besar kali ini, Sama ada antara muka pembungkusan TensorRT-LLM untuk OpenAI Chat API atau peningkatan prestasi pemacu RTX DirectML untuk Llama 2, serta model bahasa besar (LLM) popular lain, boleh mencapai pecutan dan aplikasi yang lebih baik pada perkakasan NVIDIA.

NVIDIA RTX显卡AI推理提速5倍!RTX PC轻松在本地搞定大模型

Antaranya, TensorRT-LLM ialah perpustakaan yang digunakan untuk mempercepatkan inferens LLM, yang boleh meningkatkan prestasi inferens AI dengan ketara Ia sentiasa dikemas kini untuk menyokong lebih banyak model bahasa, dan ia juga merupakan sumber terbuka.

NVIDIA mengeluarkan TensorRT-LLM untuk platform Windows pada bulan Oktober. Untuk desktop dan komputer riba yang dilengkapi dengan kad grafik GPU siri RTX 30/40, selagi memori grafik mencapai 8GB atau lebih, ia akan menjadi lebih mudah untuk menyelesaikan beban kerja AI yang menuntut

Kini, Tensor RT-LLM untuk Windows boleh serasi dengan API sembang popular OpenAI melalui antara muka pembungkusan baharu, jadi pelbagai aplikasi berkaitan boleh dijalankan terus secara tempatan tanpa perlu menyambung ke awan, yang sesuai untuk pengekalan pada PC Data peribadi dan proprietari untuk mengelakkan kebocoran privasi.

Selagi model bahasa besar yang dioptimumkan oleh TensorRT-LLM, ia boleh digunakan dengan antara muka pakej ini, termasuk Llama 2, Mistral, NV LLM, dll.

Untuk pembangun, tidak perlu menulis semula dan mengalihkan kod yang membosankan Hanya ubah suai satu atau dua baris kod, dan aplikasi AI boleh dilaksanakan dengan cepat secara tempatan.

NVIDIA RTX显卡AI推理提速5倍!RTX PC轻松在本地搞定大模型

↑↑↑Pemalam kod Microsoft Visual Studio berdasarkan TensorRT-LLM - Pembantu pengekodan Continue.dev

TensorRT-LLM v0.6.0 akan dikemas kini pada akhir bulan ini, yang akan membawa sehingga 5 kali peningkatan dalam prestasi inferens pada RTX GPU, dan menyokong LLM yang lebih popular, termasuk 7 bilion parameter baharu Mistral, The 8 bilion parameter Nemotron-3 membolehkan desktop dan komputer riba menjalankan LLM secara tempatan pada bila-bila masa, dengan cepat dan tepat.

Mengikut data pengukuran sebenar, Kad grafik RTX 4060 yang digandingkan dengan TenroRT-LLM, prestasi inferens boleh mencapai 319 token sesaat, iaitu 4.2 kali lebih pantas daripada 61 token sesaat bagi hujung belakang yang lain.

RTX 4090 boleh memecut daripada token sesaat kepada 829 token sesaat, peningkatan sebanyak 2.8 kali ganda.

NVIDIA RTX显卡AI推理提速5倍!RTX PC轻松在本地搞定大模型

Dengan prestasi perkakasannya yang berkuasa, ekosistem pembangunan yang kaya dan pelbagai senario aplikasi, NVIDIA RTX menjadi pembantu yang sangat diperlukan dan berkuasa untuk AI tempatan. Pada masa yang sama, dengan pengayaan berterusan pengoptimuman, model dan sumber, populariti fungsi AI pada ratusan juta PC RTX juga semakin pantas

Pada masa ini, lebih daripada 400 rakan kongsi telah mengeluarkan aplikasi dan permainan AI yang menyokong pecutan GPU RTX Memandangkan kemudahan penggunaan model terus bertambah baik, saya percaya semakin banyak fungsi AIGC akan muncul pada platform Windows PC.

NVIDIA RTX显卡AI推理提速5倍!RTX PC轻松在本地搞定大模型

Atas ialah kandungan terperinci Kad grafik NVIDIA RTX mempercepatkan inferens AI sebanyak 5 kali ganda! RTX PC dengan mudah mengendalikan model besar secara tempatan. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

sumber:sohu.com
Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Tutorial Popular
Lagi>
Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan
Tentang kita Penafian Sitemap
Laman web PHP Cina:Latihan PHP dalam talian kebajikan awam,Bantu pelajar PHP berkembang dengan cepat!