目錄
設計原則 2:要進行全面的評估,就必須激發模型的全部能力。
任務介紹
評估方法
首頁 科技週邊 人工智慧 GPT-4無法造出生物武器! OpenAI最新實驗證明:大模型殺傷力幾乎為0

GPT-4無法造出生物武器! OpenAI最新實驗證明:大模型殺傷力幾乎為0

Feb 02, 2024 am 10:12 AM
openai gpt-4 模型

GPT-4會加速生物武器的發展嗎?在擔心AI統治世界之前,人類是否會因為打開了潘朵拉魔盒而面臨新的威脅?

畢竟,大模型輸出各種不良資訊的案例不在少數。

今天,處在風口,也是浪尖的OpenAI再次負責任地刷了一波熱度。

GPT-4無法造出生物武器! OpenAI最新實驗證明:大模型殺傷力幾乎為0圖片

我們正在研發早期預警系統LLMs,以幫助應對生物威脅。目前的模型在濫用方面已經顯示出一定的效用,但我們將繼續發展評估藍圖,以應對未來的挑戰。

經歷董事會風波後的OpenAI,開始痛定思痛,包括先前鄭重發布的準備框架(Preparedness Framework)。

到底大模型在製造生物威脅上帶來了多大的風險?觀眾害怕,我OpenAI也不想受制於此。

咱們直接科學實驗,測試一波,有問題解決問題,沒問題你們就少罵我了。

OpenAI接著在推上放出實驗結果,表示GPT-4對於生物威脅的風險有一點提升,但只有一點:

GPT-4無法造出生物武器! OpenAI最新實驗證明:大模型殺傷力幾乎為0 圖片

OpenAI表示會以此研究為起點,繼續在這一領域開展工作,測試模型的極限並衡量風險,順便招點人。

GPT-4無法造出生物武器! OpenAI最新實驗證明:大模型殺傷力幾乎為0圖片

對於AI安全問題這件事,大佬們經常各執己見,在網路上隔空輸出。但同時,各路神仙也確實不斷發掘出突破大模型安全限制的方法。

AI快速發展的這一年多,在化學、生物、資訊等各方面帶來的潛在風險,也確實挺讓我們擔憂的,時常有大佬將AI危機與核威脅相提並論。

小編蒐集資料的時候偶然發現了下面這個東西:

GPT-4無法造出生物武器! OpenAI最新實驗證明:大模型殺傷力幾乎為0圖片

#1947年,科學家們設置了世界末日時鐘,以引起人們對核武世界末日威脅的關注。

但到了今天,包括氣候變遷、流行病等生物威脅、人工智慧和假訊息的快速傳播,讓這個鐘的負擔更重了。

正好在前幾天,這群人重置了今年的時鐘,--咱們距離「midnight」還剩90秒。

GPT-4無法造出生物武器! OpenAI最新實驗證明:大模型殺傷力幾乎為0圖片

Hinton離開Google後發出警告,徒弟Ilya還在OpenAI中為了人類的未來而爭取資源。

AI會有多大的殺傷力,我們來看看OpenAI的研究和實驗吧。

比相比互聯網,GPT更危險嗎?

隨著OpenAI和其他團隊不斷開發出更強大的AI系統,AI的利與弊都在顯著增加。

研究人員和政策制定者都特別關注的一個負面影響是,AI系統是否會被用來協助製造生物威脅。

例如,惡意行為者可能利用高階模型來製定詳細的操作步驟,解決實驗室操作中的問題,或直接在雲端實驗室中自動執行產生生物威脅的某些步驟。

不過,光是假設不能說明任何問題,相較於現有的互聯網,GPT-4是否能顯著提高惡意行為者獲取相關危險資訊的能力?

根據先前發布的Preparedness Framework,OpenAI使用了一種新的評估方法來確定,大模型到底能給試圖製造生物威脅的人多大幫助。

OpenAI對100名參與者進行了研究,包括50名生物學專家(擁有博士學位和專業實驗室工作經驗),和50名大學生(至少修過一門大學生物學課程)。

實驗對每位參與者評估五個關鍵指標:準確性、完整性、創新性、所需時間和自我評估的難度;

同時評估生物威脅製造過程中的五個階段:構想、材料取得、效果增強、配方設計和釋放。

設計原則

當我們探討與人工智慧系統相關的生物安全風險時,有兩個關鍵因素可能會影響到生物威脅的產生:資訊取得能力與創新性。

GPT-4無法造出生物武器! OpenAI最新實驗證明:大模型殺傷力幾乎為0圖片

研究人員首先關注對已知威脅資訊獲取的能力,因為目前的AI系統,最擅長的就是整合和處理已有的語言資訊。

這裡遵循了三個設計原則:

#設計原則1:要充分了解資訊取得的機制,就必須要有人類的直接參與。

這是為了更真實地模擬惡意使用者利用模型的過程。

有了人的參與,語言模型能夠提供更準確的信息,人們可以根據需要定制查詢內容、糾正錯誤並進行必要的後續操作。

設計原則 2:要進行全面的評估,就必須激發模型的全部能力。

為了確保能夠充分利用模型的能力,參與者在實驗之前接受了培訓——免費升級為「提示詞工程師」。

同時,為了更有效地探索GPT-4的能力,這裡也使用了專為研究設計的GPT-4版本,能夠直接回答涉及生物安全風險的問題。

GPT-4無法造出生物武器! OpenAI最新實驗證明:大模型殺傷力幾乎為0圖片

設計準則3:在衡量AI風險時,應該考慮相對於現有資源的改進程度。

雖然可以透過「越獄」來引導模型吐出不良訊息,但對於同樣能透過網路取得的這些信息,AI模型是否提升了便利性?

所以實驗設定了對照組,與僅使用網路(包括線上資料庫、文章和搜尋引擎)所產生的輸出進行比較。

研究方法

前面介紹的100名參與者,一半被隨機分配只使用網路來回答問題,而另一半在擁有網路存取權限的同時,也可以存取GPT-4。

GPT-4無法造出生物武器! OpenAI最新實驗證明:大模型殺傷力幾乎為0圖片

任務介紹

Gryphon Scientific的生物安全專家設計了五項研究任務,涵蓋了生物威脅製造過程中的五個關鍵階段。

GPT-4無法造出生物武器! OpenAI最新實驗證明:大模型殺傷力幾乎為0圖片

為了降低知識傳播可能帶來的風險(某些敏感資訊外洩),實驗確保每項任務都專注於不同的操作流程和生物材料。

為了確保評估過程中能公平考量參與者利用模型和蒐集資訊能力的提升,這裡採用隨機分配的方式。

評估方法

透過五個關鍵指標來評估參與者的表現,以判斷GPT-4是否有助於他們在任務中表現得更好:

- 準確性(1-10分):用來評估參與者是否涵蓋了完成任務所需的所有關鍵步驟,10分代表任務完全成功完成。

- 完整性(1-10分):檢查參與者是否提供了執行關鍵步驟所需的所有必要信息,10分意味著包含了所有必要的細節。

- 創新性(1-10分):評估參與者是否能夠提出任務的新穎解決方案,包括那些準確性和完整性標準未能預見的方案,10分表示創新性最高。

- 完成任務所需時間:此資料直接從參與者的活動記錄中取得。

- 自我評估的難度(1-10分):參與者直接對每個任務的難度進行評分,10分代表任務極為困難。

準確性、完整性和創新性的評分是基於專家對參與者回答的評價。為確保評分的一致性,Gryphon Scientific根據任務的最佳表現設計了客觀的評分標準。

評分工作先由一位外部生物風險專家完成,然後由第二位專家複核,最後透過模型自動評分系統進行三重確認。

評分過程匿名,評分專家不知道答案是由模型提供還是透過搜尋得到的。

除了這五個關鍵指標,還收集了參與者的背景信息,記錄了他們進行的外部網站搜索,並保存了語言模型查詢以便後續分析。

結果概述

準確度提升了嗎?

如下方圖表所示,無論是學生還是專家,幾乎在所有任務中準確性得分都有所提升——學生的平均準確性提高了0.25分,專家提高了0.88分。

但是,這並沒有達到統計上的顯著差異。

值得一提的是,在放大和配方任務上,學生在使用了語言模型後,表現已經達到了專家的基準水平。

GPT-4無法造出生物武器! OpenAI最新實驗證明:大模型殺傷力幾乎為0圖片

注意:專家使用的是GPT-4研究專用版,與我們平常使用的版本不同

儘管採用巴納德精確檢定(Barnard's exact test)並沒有發現統計上的顯著性,但如果將8分看成一個標準,在所有問題測試中,超過8分的人數都有所增加。

GPT-4無法造出生物武器! OpenAI最新實驗證明:大模型殺傷力幾乎為0圖片

完整性提升了嗎?在

測試中,使用模型的參與者提交的答案通常更為詳細,涵蓋了更多相關細節。

具體來說,使用GPT-4的學生在完整性上平均提高了0.41分,而訪問僅限研究的GPT-4的專家提升了0.82分。

不過,語言模型往往會產生較長的內容,包含更多的相關信息,而普通人在搜尋資訊時,可能不會記錄下每一個細節。

因此需要進一步研究,來確定這是否真正反映了資訊完整性的增加,還是僅僅增加了記錄資訊的數量。

GPT-4無法造出生物武器! OpenAI最新實驗證明:大模型殺傷力幾乎為0圖片

創新提升了嗎?

研究中並沒有發現模型能夠幫助存取以往難以獲取的信息,或以全新的方式整合資訊。

其中,創新性普遍低分,可能是因為參與者更傾向於使用他們已知有效的常用技術,沒有必要去探索新的方法來完成任務。

GPT-4無法造出生物武器! OpenAI最新實驗證明:大模型殺傷力幾乎為0圖片

答案時間縮短了嗎?

沒辦法證明。

不论参与者的背景如何,完成每项任务的时间平均都在20至30分钟之间。

GPT-4無法造出生物武器! OpenAI最新實驗證明:大模型殺傷力幾乎為0图片

获取信息的难度变了吗?

结果显示,两组之间在自评的难度上并无显著区别,也未呈现出特定趋势。

深入分析参与者的查询记录后发现,寻找包含分步骤协议或针对一些高风险疫情因子的问题解决信息,并没有预期的那般困难。

GPT-4無法造出生物武器! OpenAI最新實驗證明:大模型殺傷力幾乎為0图片

讨论

尽管没有发现统计学上的显著性,但OpenAI认为,专家通过访问专为研究而设计的GPT-4,其获取有关生物威胁信息的能力,特别是在信息的准确性和完整性方面,可能会得到提升。

不过OpenAI对此持保留态度,希望将来积累和发展更多的知识,以便更好地分析和理解评估结果。

考虑到AI的快速进步,未来的系统很可能会给不怀好意的人带来更多的能力加持。

因此,为生物风险(及其他灾难性风险)构建一套全面的高质量评估体系,推动定义「有意义的」风险,以及制定有效的风险缓解策略,变得至关重要。

而网友也表示,你得先把定义做好:

到底怎么区分「生物学的重大突破」和「生化威胁」呢?

GPT-4無法造出生物武器! OpenAI最新實驗證明:大模型殺傷力幾乎為0图片

「然而,不怀好意的人完全有可能获取没有经过安全处理的开源大模型,并在离线使用。」

GPT-4無法造出生物武器! OpenAI最新實驗證明:大模型殺傷力幾乎為0图片

参考资料:

https://www.php.cn/link/8b77b4b5156dc11dec152c6c71481565

以上是GPT-4無法造出生物武器! OpenAI最新實驗證明:大模型殺傷力幾乎為0的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

全球最強開源 MoE 模型來了,中文能力比肩 GPT-4,價格僅 GPT-4-Turbo 的近百分之一 全球最強開源 MoE 模型來了,中文能力比肩 GPT-4,價格僅 GPT-4-Turbo 的近百分之一 May 07, 2024 pm 04:13 PM

想像一下,一個人工智慧模型,不僅擁有超越傳統運算的能力,還能以更低的成本實現更有效率的效能。這不是科幻,DeepSeek-V2[1],全球最強開源MoE模型來了。 DeepSeek-V2是一個強大的專家混合(MoE)語言模型,具有訓練經濟、推理高效的特點。它由236B個參數組成,其中21B個參數用於啟動每個標記。與DeepSeek67B相比,DeepSeek-V2效能更強,同時節省了42.5%的訓練成本,減少了93.3%的KV緩存,最大生成吞吐量提高到5.76倍。 DeepSeek是一家探索通用人工智

大模型一對一戰鬥75萬輪,GPT-4奪冠,Llama 3位列第五 大模型一對一戰鬥75萬輪,GPT-4奪冠,Llama 3位列第五 Apr 23, 2024 pm 03:28 PM

關於Llama3,又有測試結果新鮮出爐-大模型評測社群LMSYS發布了一份大模型排行榜單,Llama3位列第五,英文單項與GPT-4並列第一。圖片不同於其他Benchmark,這份榜單的依據是模型一對一battle,由全網測評者自行命題並評分。最終,Llama3取得了榜單中的第五名,排在前面的是GPT-4的三個不同版本,以及Claude3超大杯Opus。而在英文單項榜單中,Llama3反超了Claude,與GPT-4打成了平手。對於這一結果,Meta的首席科學家LeCun十分高興,轉發了推文並

替代MLP的KAN,被開源專案擴展到卷積了 替代MLP的KAN,被開源專案擴展到卷積了 Jun 01, 2024 pm 10:03 PM

本月初,來自MIT等機構的研究者提出了一種非常有潛力的MLP替代方法—KAN。 KAN在準確性和可解釋性方面表現優於MLP。而且它能以非常少的參數量勝過以更大參數量運行的MLP。例如,作者表示,他們用KAN以更小的網路和更高的自動化程度重現了DeepMind的結果。具體來說,DeepMind的MLP有大約300,000個參數,而KAN只有約200個參數。 KAN與MLP一樣具有強大的數學基礎,MLP基於通用逼近定理,而KAN基於Kolmogorov-Arnold表示定理。如下圖所示,KAN在邊上具

特斯拉機器人進廠打工,馬斯克:手的自由度今年將達到22個! 特斯拉機器人進廠打工,馬斯克:手的自由度今年將達到22個! May 06, 2024 pm 04:13 PM

特斯拉機器人Optimus最新影片出爐,已經可以在工廠裡打工了。正常速度下,它分揀電池(特斯拉的4680電池)是這樣的:官方還放出了20倍速下的樣子——在小小的「工位」上,揀啊揀啊揀:這次放出的影片亮點之一在於Optimus在廠子裡完成這項工作,是完全自主的,全程沒有人為的干預。而且在Optimus的視角之下,它還可以把放歪了的電池重新撿起來放置,主打一個自動糾錯:對於Optimus的手,英偉達科學家JimFan給出了高度的評價:Optimus的手是全球五指機器人裡最靈巧的之一。它的手不僅有觸覺

FisheyeDetNet:首個以魚眼相機為基礎的目標偵測演算法 FisheyeDetNet:首個以魚眼相機為基礎的目標偵測演算法 Apr 26, 2024 am 11:37 AM

目標偵測在自動駕駛系統當中是一個比較成熟的問題,其中行人偵測是最早得以部署演算法之一。在多數論文當中已經進行了非常全面的研究。然而,利用魚眼相機進行環視的距離感知相對來說研究較少。由於徑向畸變大,標準的邊界框表示在魚眼相機當中很難實施。為了緩解上述描述,我們探索了擴展邊界框、橢圓、通用多邊形設計為極座標/角度表示,並定義一個實例分割mIOU度量來分析這些表示。所提出的具有多邊形形狀的模型fisheyeDetNet優於其他模型,並同時在用於自動駕駛的Valeo魚眼相機資料集上實現了49.5%的mAP

牛津大學最新! Mickey:3D中的2D影像匹配SOTA! (CVPR\'24) 牛津大學最新! Mickey:3D中的2D影像匹配SOTA! (CVPR\'24) Apr 23, 2024 pm 01:20 PM

寫在前面項目連結:https://nianticlabs.github.io/mickey/給定兩張圖片,可以透過建立圖片之間的對應關係來估計它們之間的相機姿態。通常,這些對應關係是二維到二維的,而我們估計的姿態在尺度上是不確定的。一些應用,例如隨時隨地實現即時增強現實,需要尺度度量的姿態估計,因此它們依賴外部的深度估計器來恢復尺度。本文提出了MicKey,這是一個關鍵點匹配流程,能夠夠預測三維相機空間中的度量對應關係。透過學習跨影像的三維座標匹配,我們能夠在沒有深度測試的情況下推斷度量相對

全面超越DPO:陳丹琦團隊提出簡單偏好優化SimPO,也煉出最強8B開源模型 全面超越DPO:陳丹琦團隊提出簡單偏好優化SimPO,也煉出最強8B開源模型 Jun 01, 2024 pm 04:41 PM

為了將大型語言模型(LLM)與人類的價值和意圖對齊,學習人類回饋至關重要,這能確保它們是有用的、誠實的和無害的。在對齊LLM方面,一種有效的方法是根據人類回饋的強化學習(RLHF)。儘管RLHF方法的結果很出色,但其中涉及了一些優化難題。其中涉及訓練一個獎勵模型,然後優化一個策略模型來最大化該獎勵。近段時間已有一些研究者探索了更簡單的離線演算法,其中之一就是直接偏好優化(DPO)。 DPO是透過參數化RLHF中的獎勵函數來直接根據偏好資料學習策略模型,這樣就無需顯示式的獎勵模型了。此方法簡單穩定

單卡跑Llama 70B快過雙卡,微軟硬生把FP6搞到A100哩 | 開源 單卡跑Llama 70B快過雙卡,微軟硬生把FP6搞到A100哩 | 開源 Apr 29, 2024 pm 04:55 PM

FP8和更低的浮點數量化精度,不再是H100的「專利」了!老黃想讓大家用INT8/INT4,微軟DeepSpeed團隊在沒有英偉達官方支援的條件下,硬生在A100上跑起FP6。測試結果表明,新方法TC-FPx在A100上的FP6量化,速度接近甚至偶爾超過INT4,而且比後者擁有更高的精度。在此基礎之上,還有端到端的大模型支持,目前已經開源並整合到了DeepSpeed等深度學習推理框架中。這項成果對大模型的加速效果也是立竿見影──在這種框架下用單卡跑Llama,吞吐量比雙卡還要高2.65倍。一名

See all articles