姚期智等數十名中外專家簽署北京 AI 安全國際共識:禁止 AI 自行複製

王林
發布: 2024-03-19 17:19:02
轉載
1022 人瀏覽過

姚期智等数十名中外专家签署北京 AI 安全国际共识:禁止 AI 自行复制

3 月18 日消息,據騰訊科技報道,包括圖靈獎得主約書亞・本吉奧、杰弗裡・辛頓、姚期智等在內的數十位的中外專家日前在北京聯合簽署了由智源研究院發起的《北京AI 安全國際共識》,涉及人工智能“風險紅線”和“路線”兩大塊,其中“風險紅線」包含「自主複製、改進」「權力尋求」「協助不良行為者」和「欺騙」四個部分。

姚期智等数十名中外专家签署北京 AI 安全国际共识:禁止 AI 自行复制

本站整理四部分內容大致如下:

  • 人工智慧的「自主複製、改進」:強調人在這個過程中的作用,要求任何人工智慧系統都不應在人類沒有明確批准和協助的情況下複製或改進自身,包括製作自身的精確副本、創造具有相似或更高能力的新人工智慧系統。
  • 「權力尋求」:明確要求任何 AI 系統不能採取不當增加自身權力、影響力的行動。
  • 「協助不良行為者」:所有AI 系統都不應輔助提升其使用者的能力,使之可達設計大規模殺傷性武器、違反生物或化學武器公約,或執行導致嚴重財務損失或同等傷害的網路攻擊領域專家的程度
  • 「欺騙」:要求任何 AI 系統都不可擁有持續引導其設計者或監管者誤解其篡奪任何前述紅線的可能性

據介紹,該共識呼籲業界在進行AI 技術研發時,限制其獲取透過「越獄」「誘導開發者」的形式獲得超常規權限,並限制AI 在未經監管的情況下進行自身複製與改進,為AI 的發展套上「緊箍咒」。

共識也強調,實現以上紅線不被越界的關鍵,在於產業各方共同努力,建立並完善治理機制,同時不斷研發更安全的技術。 AI的發展路線涉及「治理」、「測量與評估」以及「技術合作」這三個面向。具體來說,治理機制的建立是確保AI發展方向正確的基礎,測量和評估則是對AI技術應用效果進行客觀評估的關鍵,技術合作則是促進各方共同推動AI發展的重要保障。這些方面的協調發展,將有助於確保AI技術的健康發展,同時避免潛在風

  • 治理:建議針對超過特定計算或能力閾值的人工智慧模型和訓練行為,立即實施國家層級的註冊。
  • 測量與評估:在實質風險出現之前開發全面的方法和技術,使紅線具體化、防範工作可操作化,並建議組建由人類監督下的紅隊測試和自動化模型評估,且開發者應為人工智慧的安全性負責。
  • 技術合作:建立更強的全球技術網絡,呼籲 AI 開發者和政府資助者將超過 1/3 的預算投入安全領域。

以上是姚期智等數十名中外專家簽署北京 AI 安全國際共識:禁止 AI 自行複製的詳細內容。更多資訊請關注PHP中文網其他相關文章!

相關標籤:
來源:51cto.com
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
最新問題
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板
關於我們 免責聲明 Sitemap
PHP中文網:公益線上PHP培訓,幫助PHP學習者快速成長!