3 月18 日消息,據騰訊科技報道,包括圖靈獎得主約書亞・本吉奧、杰弗裡・辛頓、姚期智等在內的數十位的中外專家日前在北京聯合簽署了由智源研究院發起的《北京AI 安全國際共識》,涉及人工智能“風險紅線”和“路線”兩大塊,其中“風險紅線」包含「自主複製、改進」「權力尋求」「協助不良行為者」和「欺騙」四個部分。
本站整理四部分內容大致如下:
據介紹,該共識呼籲業界在進行AI 技術研發時,限制其獲取透過「越獄」「誘導開發者」的形式獲得超常規權限,並限制AI 在未經監管的情況下進行自身複製與改進,為AI 的發展套上「緊箍咒」。
共識也強調,實現以上紅線不被越界的關鍵,在於產業各方共同努力,建立並完善治理機制,同時不斷研發更安全的技術。 AI的發展路線涉及「治理」、「測量與評估」以及「技術合作」這三個面向。具體來說,治理機制的建立是確保AI發展方向正確的基礎,測量和評估則是對AI技術應用效果進行客觀評估的關鍵,技術合作則是促進各方共同推動AI發展的重要保障。這些方面的協調發展,將有助於確保AI技術的健康發展,同時避免潛在風
以上是姚期智等數十名中外專家簽署北京 AI 安全國際共識:禁止 AI 自行複製的詳細內容。更多資訊請關注PHP中文網其他相關文章!