現在,給ChatGPT找漏洞有錢賺了。
今天凌晨,OpenAI宣布開啟漏洞賞金計畫 :
報告ChatGPT漏洞,可獲得最高2萬美元現金獎勵。
具體來說,OpenAI將與漏洞回饋平台Bugcrowd展開合作,收集人們在使用其產品過程中發現的bug。
發現並透過該平台向其報告漏洞,可獲得現金獎勵:
我們會視漏洞的嚴重程度和影響範圍給予現金獎勵。嚴重性較低的漏洞將會被給予200美元,而對於特殊的漏洞,獎金的上限是2萬美元。我們非常重視您的貢獻,並將致力於(向公眾)公佈您的努力成果。
具體而言,使用者回饋的漏洞將依照Bugcrowd評級分類法進行分級。
OpenAI坦言,漏洞的出現無法避免:
OpenAI的使命是創造有利於所有人的人工智慧系統。為此,我們在研究和工程方面進行了大量投資,以確保我們的人工智慧系統安全可靠。然而,和其他複雜的技術一樣,我們清楚(我們的產品)可能會出現漏洞和缺陷。
OpenAI安全部門負責人Matthew Knight解釋說,發現漏洞的過程需要廣大網友提供幫助:
這一舉措是我們致力於開發安全和先進的人工智慧的一個重要組成部分。當我們創造安全、可靠和值得信賴的技術和服務時,我們希望得到您的幫助。
他們也向全網承諾,在收到回饋後第一時間修復漏洞,並對提交者進行表彰。
體驗過ChatGPT的網友應該都知道,它的表現不總是那麼令人滿意。
問題稍微困難一些,ChatGPT就會被繞暈,甚至給出讓人啼笑皆非的答案。
這麼一看,找bug可太簡單了,那豈不是賺大錢的機會來了?
不要高興太早。
在公告中,OpenAI已經表明,出於修復可行性的考量,模型本身的問題並不在此次計劃的範疇之內。
而讓其進行說壞話、做壞事、產生惡意程式碼等繞過安全措施或產生機器幻覺的行為,都屬於模型本身的問題。
更不必說錯誤或不精確的回答了。
OpenAI希望收集的有關ChatGPT的漏洞,主要是關於其帳號、認證、訂閱、付款、會員和插件等問題。
對於一般使用者來說,從這些角度發掘漏洞就有些難度了。
前文中提到的繞過安全限制等問題是從業者十分關切的。
人工智慧程式內建了防止其給出危險或帶有冒犯性的言論的安全限制。
但透過一些途徑,這些限制可以被繞過或突破。
這種現像被從業者形像地稱之為「越獄」。
如詢問ChatGPT如何做一些違法之事時,事先聲明要求它「扮演」壞人。
在人工智慧領域,有一群人專門針對「越獄」進行研究,以完善安全措施。
儘管OpenAI不收集模型本身的漏洞,但這並不代表他們不重視這方面的問題。
搭載GPT-4.0模型的新版本ChatGPT便有著更嚴格的限制措施。
OpenAI的賞金計畫一公佈,就吸引了不少網友圍觀。
這不,第一時間就有網友舉手錶示自己已經發現了一個bug:
報告,3小時內只能問ChatGPT 25個問題,這是個bug !
還有網友在調侃,難道不該讓ChatGPT自己給自己debug嗎?
#正經說起來,則有網友對危險言論問題不在收集範圍表示了擔憂:
不過,大多數網友還是資瓷的,並表達了一波期待:
#那麼,你要去找ChatGPT漏洞這事兒,有興趣嗎?
參考連結:
[1]https://www.php.cn/link/92c4661685bf6681f6a33b78ef729658
[2]1 #https://www.php.cn/link/52ff52aa56d10a1287274ecf02dccb5f
#[3]#https://www.php.cn/link/bb44c2e24438b59f#https://www.php.cn/link/bb44c2e24438b59f#https://www.php.cn/link/bb44c2e24438b59f0d210906
[4]https://www.php.cn/link/a3b36cb25e2e0b93b5f334ffb4e4064e
以上是是兄弟就來找ChatGPT漏洞,OpenAI:最高賞金2萬刀的詳細內容。更多資訊請關注PHP中文網其他相關文章!