IT House News pada 27 Oktober, OpenAI mengumumkan pada hari Khamis waktu tempatan bahawa syarikat itu sedang membentuk pasukan baharu untuk mengurangkan "risiko bencana" yang berkaitan dengan AI dan akan menjejak, menilai dan memantau isu utama yang mungkin disebabkan oleh AI dan melindungi .
OpenAI menyatakan, "Kami yakin model AI yang canggih akan mempunyai keupayaan yang melebihi model terkini yang terkini dan mungkin memberi manfaat kepada semua manusia, tetapi ia juga menimbulkan risiko yang semakin serius." berusaha untuk mengurangkan ancaman nuklear , ancaman biologi, kimia dan radioaktif serta risiko utama lain yang mungkin disebabkan oleh siri AI, serta potensi risiko yang dibawa oleh tingkah laku seperti "replikasi diri" AI.
Sumber imej Pexels
OpenAI berkata syarikat perlu memastikan mereka mempunyai
kefahaman, infrastrukturyang diperlukan untuk mendapatkan sistem AI berkeupayaan tinggi. Pasukan itu akan diketuai oleh Aleksander Madry, bekas pengarah Pusat Pembelajaran Mesin Boleh Digunakan MIT, dan akan membangunkan dan mengekalkan "dasar pembangunan bermaklumat risiko" yang menggariskan usaha syarikat untuk menilai dan memantau model AI yang besar. IT House sebelum ini melaporkan bahawa organisasi bukan untung AI Security Center mengeluarkan kenyataan ringkas pada akhir bulan lalu: "Mengurangkan risiko kepupusan yang disebabkan oleh kecerdasan buatan akan diletakkan pada tahap yang sama dengan isu sosial seperti wabak dan nuklear perang, dan dinaikkan pangkat sebagai keutamaan global ",
Inisiatif 22 perkataan ini telah disokong oleh ramai pemimpin industri AI, termasuk Ketua Pegawai Eksekutif OpenAI Sam Altman.
Atas ialah kandungan terperinci OpenAI sedang membentuk pasukan baharu untuk mengawal risiko 'malapetaka' berkaitan AI. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!