OpenAI公司日前宣布將在其人工智慧工具中建構安全措施。該公司是功能強大的GPT-4大型語言人工智慧模型的開發者,該模型是其ChatGPT聊天機器人和其他人工智慧系統的核心。隨著越來越多的人要求對生成式人工智慧系統的開發採取更多控制措施,該公司為此不得不揭露了這項資訊。
OpenAI公司在一篇部落格文章中詳細介紹正在採取的措施,以阻止其人工智慧系統產生有害內容,避免違反資料隱私法規。雖然該公司開發的人工智慧工具在全球範圍內引領了一場生成式人工智慧熱潮,但在最近幾週,監管機構開始對這種人工智慧系統的安全性產生興趣,義大利以潛在違反GDPR法規為由禁止使用ChatGPT。
包括馬斯克和蘋果聯合創始人沃茲尼亞克在內的人工智慧專家近日在一封公開信上呼籲,暫時停止大型語言模型(LLM)的開發,美國總統拜登也加入了這項討論,他告訴媒體記者,人工智慧公司必須把安全放在第一位。
OpenAI公司表示,在上個月發布迄今為止最先進的GPT-4之前,該公司花了六個月的時間來完善這個系統,使其盡可能難以被用於邪惡目的。
安全研究人員先前曾證明,透過「欺騙」聊天機器人,使其模仿糟糕的人工智慧系統產生仇恨言論或惡意軟體程式碼,從而繞過ChatGPT的安全控制是可能的。 OpenAI公司表示,與GPT-3.5模型相比,GPT-4不太可能出現這種情況。
該公司的工程師表示:「與GPT-3.5相比,GPT-4對不允許內容的請求做出回應的可能性降低了82%,我們已經建立了一個強大的系統來監控人工智慧系統的濫用。我們也正在開發一些功能,能夠使開發人員為模型輸出設定更嚴格的標準,以更好地支援需要此類功能的開發人員和用戶。」
該公司也藉此機會回應了資料監管機構對其模型從網路上收集資料用於培訓目的的方式的擔憂。在義大利禁止ChatGPT之後,加拿大對這種聊天機器人的安全性展開了調查,歐洲其他國家正在考慮是否要效法義大利的做法。
OpenAI公司表示:「我們的大型語言模型是在廣泛的文本語料庫上進行訓練的,其中包括公開可用的內容、授權內容以及人工審稿人生成的內容。我們不會將數據用於銷售服務、發布廣告或建立用戶檔案。」
該公司還對如何確保個人資料在培訓期間不被洩露進行了詳細說明。該公司表示:「雖然我們的一些訓練數據包括在公共互聯網上可以獲得的個人信息,但我們希望我們的大型語言模型了解世界,而不是個人。
因此,我們努力在可行的情況下從訓練資料集中刪除個人訊息,微調模型以拒絕對個人資訊的請求,並回應個人從人工智慧系統中刪除個人資訊的請求。這些步驟最大限度地降低了我們的模型產生包含個人資訊的回應的可能性。」
在OpenAI公司發表這一聲明之前,美國總統拜登對媒體記者表示,人工智慧開發者有責任確保他們的產品在公開之前是安全的。
拜登在與他的科學技術顧問委員會討論人工智慧的發展後發表了講話。他表示,美國政府致力於推動去年10月推出的《人工智慧權利法案》,以保護個人免受先進自動化系統的負面影響。
拜登說:「我們在去年10月提議了一項權利法案,以確保重要的保護措施從一開始就內置在人工智慧系統中,這樣我們就不必回頭去做了。我期待我們的討論能夠以確保負責任的創新和適當的護欄,以保護美國民眾的權利和安全,保護他們的隱私,並解決可能存在的偏見和虛假信息等問題。」
以上是OpenAI公司發佈建構GPT-4等人工智慧模型時所使用的安全措施的詳細內容。更多資訊請關注PHP中文網其他相關文章!