Organisasi penanda aras kecerdasan buatan MLCommons mengumumkan penubuhan kumpulan kerja keselamatan kecerdasan buatan (AIS: AI Safety). AIS akan membangunkan platform dan perpustakaan ujian daripada banyak penyumbang untuk menyokong penanda aras keselamatan AI untuk kes penggunaan yang berbeza.
Sistem kecerdasan buatan berpotensi untuk memberikan manfaat yang besar kepada masyarakat, tetapi mereka bukan tanpa risiko, seperti kemudaratan, Maklumat yang salah dan berat sebelah. Seperti teknologi kompleks lain, masyarakat memerlukan ujian keselamatan standard industri untuk merealisasikan faedah sambil meminimumkan risiko. Platform baharu ini akan membolehkan pengguna memilih penanda aras daripada perpustakaan ujian dan mengagregatkan keputusan penanda aras ini kepada skor yang berguna dan mudah difahami. Ini serupa dengan piawaian dalam industri lain, seperti penilaian ujian keselamatan automotif dan penarafan bintang tenaga
Keutamaan segera untuk usaha ini adalah untuk menyokong keselamatan AI yang lebih ketat dan lebih dipercayai Perkembangan pesat teknologi ujian. Kumpulan Kerja AIS akan memanfaatkan kepakaran teknikal dan operasi ahlinya dan komuniti AI yang lebih besar untuk membantu membimbing dan mencipta teknologi garis dasar keselamatan AI. "Tanda aras keselamatan yang dibangunkan oleh komuniti AI yang luas adalah terbuka dan dinamik," kata Joaquin Vanschoren, Profesor Madya Pembelajaran Mesin (ML) di Universiti Teknologi Eindhoven "Ini mewujudkan insentif sebenar untuk membangun dan mencapai matlamat bersama. "Jika sesiapa sahaja yang melihat masalah keselamatan yang tidak dapat diselesaikan, mereka boleh menghasilkan ujian baharu dan kami mempunyai beberapa orang yang paling bijak di dunia yang berkumpul untuk benar-benar menyelesaikan masalah tersebut , menggunakan penanda aras bermakna kami akan mempunyai pemahaman yang jelas tentang model AI yang terbaik menyelesaikan keselamatan masalah.” LLM) dan membina kerja perintis penyelidik di Pusat Penyelidikan Model Asas (CRFM) dan Penilaian Holistik Model Bahasa (HELM) Universiti Stanford. Selain membina dan menggabungkan banyak ujian berkaitan keselamatan pada rangka kerja HELM, kumpulan kerja juga berharap beberapa syarikat akan membuat ujian keselamatan AI dalaman mereka untuk tujuan proprietari awam dan berkongsinya dengan komuniti MLCommons untuk mempercepatkan rentak inovasi # 🎜🎜#
Percy Liang, Pengarah Pusat Penyelidikan Model Asas, berkata: "Kami telah membangunkan HELM, rangka kerja penilaian modular, selama kira-kira 2 tahun. Saya sangat teruja untuk bekerjasama dengan MLCommons untuk memanfaatkan HELM Menjalankan penilaian keselamatan kecerdasan buatan adalah topik yang saya fikirkan selama 7 tahun Dengan peningkatan model asas yang berkuasa, topik ini menjadi sangat mendesak Kumpulan Kerja AIS percaya bahawa apabila ujian semakin matang, AI standard penanda aras keselamatan akan menjadi bahagian penting dalam pendekatan keselamatan AI. Ini selaras dengan pembangunan teknologi AI yang bertanggungjawab dan rangka kerja dasar berasaskan risiko, seperti Komitmen Sukarela mengenai Keselamatan, Keselamatan dan Kepercayaan yang dibuat oleh beberapa syarikat teknologi kepada Rumah Putih A.S. pada Julai 2023, Rangka Kerja Pengurusan Risiko Kecerdasan Buatan NIST #🎜🎜 # dan Undang-undang Kecerdasan Buatan EU akan datang
.MLCommons komited untuk menyokong pelbagai pihak berkepentingan dalam industri dan akademik untuk bersama-sama membangunkan data, alatan dan tanda aras yang dikongsi untuk membina dan menguji sistem kecerdasan buatan dengan lebih cekap. David Kanter, pengarah eksekutif MLCommons, berkata: "Kami sangat teruja untuk bekerjasama dengan ahli kami. Tahun depan, kami akan memberi tumpuan kepada membina dan mempromosikan penanda aras keselamatan kecerdasan buatan, bermula dengan model sumber terbuka, bertujuan untuk menjadikan penanda aras ini boleh digunakan secara meluas selepas pengesahan kaedah awal. Inflection, Intel , Meta, Microsoft, NVIDIA, OpenAI, Qualcomm, serta sarjana Joaquin Vanstoren dari Universiti Teknologi Eindhoven, Percy Liang dari Universiti Stanford dan Bo Li dari Universiti Chicago. Penyelidik dan jurutera dari akademia dan industri, serta pakar domain daripada masyarakat sivil dan sektor awam, boleh mengambil bahagian dalam kumpulan kerja. Klik untuk membaca artikel asal untuk mengetahui cara menyertai kumpulan kerja AIS. Mengenai MLCommons Ia adalah konsortium kejuruteraan terbuka yang bertujuan untuk membantu semua orang melakukan pembelajaran mesin yang lebih baik melalui penggunaan penanda aras dan data. Asal usul MLCommons boleh dikesan kepada penanda aras MLPerf 2018, yang dengan cepat berkembang menjadi satu siri metrik industri yang digunakan untuk mengukur prestasi pembelajaran mesin dan meningkatkan ketelusan teknologi pembelajaran mesin. MLCommons bekerjasama dengan lebih daripada 125 ahli, penyedia teknologi global, ahli akademik dan penyelidik yang memfokuskan pada alat bina bersama merentas industri pembelajaran mesin melalui penanda aras dan metrik, set data awam dan amalan terbaik
Atas ialah kandungan terperinci Menubuhkan Kumpulan Kerja Keselamatan Kecerdasan Buatan, MLCommons mengumumkan satu langkah penting. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!