Disusun丨Yifeng
Dihasilkan | 51CTO Technology Stack (WeChat ID: blog51cto)
Permintaan untuk AI generatif (AI generatif) juga semakin meningkat, dan kebolehpercayaan terhadap LLM semakin meningkat berbanding sebelum ini. Perusahaan ingin memastikan model bahasa berskala besar (LLM) yang dibangunkan untuk kegunaan dalaman dan luaran memberikan output berkualiti tinggi tanpa tersasar ke wilayah yang belum dipetakan. Untuk memenuhi keperluan ini, terdapat beberapa aspek utama yang perlu dipertimbangkan. Pertama, kebolehtafsiran model LLM harus dipertingkatkan supaya ia boleh memaparkan secara telus sumber dan proses penaakulan logik hasil yang dihasilkannya. Ini akan membantu pengguna memahami kualiti output dan menilai kebolehpercayaannya. Kedua, lebih banyak alat dan teknik perlu disediakan untuk mengesahkan dan mengesan ketepatan dan ketepatan output LLM. Alat ini boleh membantu pengguna menyedari kebimbangan ini apabila menggunakan
Microsoft telah mengiktiraf kebimbangan ini Untuk masa yang lama, model Microsoft menggunakan OpenAI hanya boleh memanggil API dan tidak mempunyai kawalan ke atas rahsia dalam kotak hitam. Microsoft baru-baru ini mengumumkan pelancaran alatan Azure AI baharu untuk membantu menyelesaikan masalah halusinasi model besar, dan juga boleh menyelesaikan kelemahan keselamatan seperti serangan input segera, di mana model diserang untuk menjana kandungan yang melanggar privasi atau kandungan berbahaya yang lain - sama seperti Microsoft Own Pencipta imej AI menjana imej palsu Taylor Swift juga.
Dilaporkan bahawa alat keselamatan akan dilancarkan secara meluas dalam beberapa bulan akan datang, dan jadual waktu khusus belum didedahkan lagi.
Dengan populariti LLM, masalah serangan suntikan segera telah menjadi sangat ketara. Pada asasnya, penyerang boleh mengubah gesaan input model dengan cara yang memintas operasi biasa model, termasuk kawalan keselamatan, dan memanipulasinya untuk memaparkan kandungan peribadi atau berbahaya, menjejaskan keselamatan atau privasi. Serangan ini boleh dilakukan dalam dua cara: serangan langsung, di mana penyerang berinteraksi secara langsung dengan LLM atau serangan tidak langsung, yang melibatkan penggunaan sumber data pihak ketiga, seperti halaman web berniat jahat.
Untuk menangani kedua-dua bentuk suntikan segera, Microsoft menambah Prompt Shields pada Azure AI. Ini ialah keupayaan komprehensif yang menggunakan algoritma pembelajaran mesin (ML) lanjutan dan pemprosesan bahasa semula jadi untuk menganalisis gesaan dan data pihak ketiga secara automatik untuk niat jahat dan menghalangnya daripada mencapai model.
Ia akan disepadukan ke dalam tiga produk berkaitan Microsoft: perkhidmatan Azure OpenAI (Nota Editor: Azure OpenAI ialah produk perkhidmatan berasaskan awan yang dilancarkan oleh Microsoft, yang menyediakan akses kepada model bahasa OpenAI yang berkuasa. Azure Kelebihan teras OpenAI ialah ia menggabungkan teknologi canggih OpenAI dengan keselamatan dan komitmen peringkat perusahaan Microsoft Azure), keselamatan kandungan Azure AI dan Azure AI Studio.
Sebagai tambahan kepada usahanya untuk menghentikan serangan suntikan segera yang mengancam keselamatan dan keselamatan, Microsoft turut memperkenalkan alatan yang memfokuskan pada kebolehpercayaan aplikasi AI generatif. Ini termasuk templat mesej sistem Pusat Keselamatan pra-bina dan ciri baharu yang dipanggil Pengesanan Keasaman.
Seperti yang dijelaskan oleh Microsoft, templat mesej sistem Pusat Keselamatan membenarkan pembangun membina mesej sistem yang membimbing tingkah laku model ke arah output yang selamat, bertanggungjawab dan berasaskan data. Pengesanan asas menggunakan model bahasa tersuai yang diperhalusi untuk mengesan artifak atau bahan yang tidak tepat dalam output teks yang dihasilkan oleh model. Kedua-duanya boleh didapati dalam produk Azure AI Studio dan Azure OpenAI.
Perlu diambil perhatian bahawa pengesanan penunjuk asas juga akan disertakan dengan penilaian automatik untuk menekankan ujian risiko dan keselamatan aplikasi AI generatif. Metrik ini akan mengukur kemungkinan bahawa aplikasi dipecahkan dan menghasilkan sebarang kandungan yang tidak sesuai. Penilaian itu juga akan merangkumi penjelasan bahasa semula jadi untuk membimbing pembangun tentang cara membina mitigasi yang sesuai untuk menyelesaikan isu.
“Hari ini, banyak organisasi kekurangan sumber untuk menguji aplikasi AI generatif mereka supaya mereka boleh bergerak dengan yakin daripada prototaip kepada penggunaan pasaran Pertama, membina set data ujian berkualiti tinggi yang mencerminkan skop risiko yang muncul boleh dicapai dengan Mencabar, seperti serangan jailbreaking, walaupun dengan data berkualiti tinggi, penilaian boleh menjadi proses yang rumit dan manual, dan pasukan pembangunan mungkin mendapati sukar untuk mentafsir keputusan untuk memaklumkan mitigasi yang berkesan," kata Sarah, Ketua Pegawai Produk untuk Keselamatan AI di Microsoft Bird mencatatkan dalam catatan blog.
Semasa penggunaan sebenar Azure AI, Microsoft akan menyediakan pemantauan masa nyata untuk membantu pembangun memberi perhatian kepada input dan output yang mencetuskan ciri keselamatan (seperti sebagai Prompt Shield). Ciri ini, yang disepadukan ke dalam perkhidmatan Azure OpenAI dan produk AI Studio, akan menjana visualisasi terperinci yang menyerlahkan bilangan dan bahagian input/output model pengguna yang disekat, bersama-sama dengan pecahan mengikut keterukan/kategori.
Menggunakan pemantauan visual masa nyata ini, pembangun boleh memahami arah aliran permintaan yang berbahaya dari semasa ke semasa dan melaraskan konfigurasi penapis kandungan, kawalan dan reka bentuk aplikasi mereka yang lebih luas untuk meningkatkan keselamatan.
Microsoft telah berusaha untuk meningkatkan produk AInya untuk masa yang lama. Sebelum ini, Ketua Pegawai Eksekutif Microsoft Satya Nadella menekankan dalam temu bual bahawa Microsoft tidak bergantung sepenuhnya kepada OpenAI, tetapi juga sedang membangunkan projek AInya sendiri dan membantu OpenAI membina produknya: "Saya sangat prihatin dengan keadaan semasa kami. Saya berasa sangat berpuas hati dengan Saya juga berpendapat bahawa ini membantu kami mengawal nasib syarikat masing-masing "
telah mengubah landskap "Semua dalam OpenAI", dan Microsoft juga menggunakan model besar termasuk Mistral. Baru-baru ini, pasukan Microsoft AI yang baru ditubuhkan telah kerap bergerak, malah ia telah mengupah Mustafa Suleyman dan pasukannya daripada Inflection AI. Ini nampaknya satu cara untuk mengurangkan pergantungan kepada Sam Altman dan OpenAI.
Kini, penambahan alatan keselamatan dan kebolehpercayaan baharu ini berdasarkan kerja yang telah dilakukan oleh syarikat, memberikan pembangun cara yang lebih baik dan selamat untuk membina model generatif di atas model yang disediakannya.
Pautan rujukan: https://venturebeat.com/ai/microsoft-launches-new-azure-ai-tools-to-cut-out-llm-safety-and-reliability-risks/
Atas ialah kandungan terperinci Lebih baik, lebih selamat dan kurang bergantung pada OpenAI, trend AI baharu Microsoft melancarkan alat keselamatan model besar Azure AI. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!