Rumah > web3.0 > teks badan

NVIDIA Memperkenalkan Perkhidmatan Mikro NIM untuk Generatif AI di Jepun dan Taiwan

WBOY
Lepaskan: 2024-08-27 15:47:16
asal
641 orang telah melayarinya

Alvin Lang 27 Ogos 2024 02:52 NVIDIA melancarkan perkhidmatan mikro NIM untuk menyokong AI generatif di Jepun dan Taiwan, mempertingkat model bahasa serantau dan aplikasi AI tempatan.

NVIDIA Memperkenalkan Perkhidmatan Mikro NIM untuk Generatif AI di Jepun dan Taiwan

NVIDIA telah memperkenalkan perkhidmatan mikro NIMnya untuk aplikasi AI generatif di Jepun dan Taiwan, bertujuan untuk memperkukuh model bahasa serantau dan menyokong pembangunan aplikasi AI generatif 本土化.

Diumumkan dalam catatan blog NVIDIA pada hari Sabtu, perkhidmatan mikro baharu direka untuk membantu pembangun membina dan menggunakan aplikasi AI generatif yang sensitif kepada bahasa tempatan dan nuansa budaya. Perkhidmatan mikro menyokong model komuniti popular, meningkatkan interaksi pengguna melalui pemahaman dan respons yang dipertingkatkan berdasarkan bahasa serantau dan warisan budaya.

Menurut ABI Research, hasil perisian AI generatif di rantau Asia-Pasifik diunjurkan mencecah $48 bilion menjelang 2030, meningkat daripada $5 bilion pada 2024. Perkhidmatan mikro baharu NVIDIA dijangka memainkan peranan penting dalam pertumbuhan ini dengan menyediakan alatan termaju untuk Pembangunan AI.

Antara tawaran baharu ialah model Llama-3-Swallow-70B dan Llama-3-Taiwan-70B, masing-masing dilatih menggunakan data Jepun dan Mandarin. Model ini direka bentuk untuk memberikan pemahaman yang lebih mendalam tentang undang-undang, peraturan dan adat tempatan.

Keluarga model RakutenAI 7B, dibina di atas Mistral-7B, dilatih menggunakan set data bahasa Inggeris dan Jepun dan tersedia sebagai perkhidmatan mikro NIM untuk fungsi Sembang dan Arahan. Model ini mencapai skor purata utama dalam kalangan model bahasa besar Jepun terbuka dalam penanda aras LM Evaluation Harness dari Januari hingga Mac 2024.

Beberapa organisasi di Jepun dan Taiwan sudah menggunakan perkhidmatan mikro NIM NVIDIA untuk membangun dan menggunakan aplikasi AI generatif.

Sebagai contoh, Institut Teknologi Tokyo telah memperhalusi model Llama-3-Swallow 70B menggunakan data bahasa Jepun. Preferred Networks, sebuah syarikat AI Jepun, menggunakan model itu untuk membangunkan AI khusus penjagaan kesihatan yang dilatih mengenai data perubatan Jepun, mencapai markah tertinggi dalam Peperiksaan Kebangsaan Jepun untuk Pakar Perubatan.

Di Taiwan, Hospital Memorial Chang Gung sedang membina Perkhidmatan Inferens AI tersuai untuk mengehoskan aplikasi LLM secara berpusat dalam sistem hospital, menggunakan model Llama-3-Taiwan 70B untuk meningkatkan komunikasi perubatan. Pegatron, pengeluar elektronik yang berpangkalan di Taiwan, mengguna pakai model untuk aplikasi dalaman dan luaran, menyepadukannya dengan Sistem AI Agen PEGAAi untuk meningkatkan kecekapan dalam pembuatan dan operasi.

Pembangun kini boleh menggunakan model AI berdaulat ini, yang dibungkus sebagai perkhidmatan mikro NIM, ke dalam pengeluaran secara berskala sambil mencapai prestasi yang lebih baik. Perkhidmatan mikro, tersedia dengan NVIDIA AI Enterprise, dioptimumkan untuk inferens dengan perpustakaan sumber terbuka NVIDIA TensorRT-LLM, memberikan daya pemprosesan sehingga 5x lebih tinggi dan mengurangkan jumlah kos menjalankan model dalam pengeluaran.

Perkhidmatan mikro NIM baharu tersedia hari ini sebagai antara muka pengaturcaraan aplikasi (API) yang dihoskan.

Untuk mengetahui lebih lanjut tentang cara NVIDIA NIM boleh mempercepatkan hasil AI generatif, lawati halaman produk di sini.

Model AI generatif, seperti LLM, telah mendapat populariti kerana keupayaan mereka untuk melaksanakan pelbagai tugas, termasuk menjana teks, kod, imej dan video. Walau bagaimanapun, menggunakan model ini boleh menjadi mencabar, terutamanya untuk organisasi yang memerlukan hasil yang cepat dan tepat.

Untuk menangani keperluan ini, NVIDIA menawarkan pelbagai penyelesaian, termasuk platform perisian NVIDIA AI Enterprise dan NVIDIA AI Registry, yang menyediakan keselamatan, pengoptimuman prestasi dan pengurusan berpusat untuk model AI generatif.

Dengan penyelesaian ini, organisasi boleh menggunakan model dengan cepat dan cekap, memastikan prestasi optimum dan kebolehpercayaan untuk aplikasi mereka.

Atas ialah kandungan terperinci NVIDIA Memperkenalkan Perkhidmatan Mikro NIM untuk Generatif AI di Jepun dan Taiwan. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

sumber:php.cn
Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Tutorial Popular
Lagi>
Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan
Tentang kita Penafian Sitemap
Laman web PHP Cina:Latihan PHP dalam talian kebajikan awam,Bantu pelajar PHP berkembang dengan cepat!