DetectGPT:使用機率曲率的零樣本機器產生文字偵測
DetectGPT的目的是確定一段文字是否由特定的llm生成,例如GPT-3。為了對段落 x 進行分類,DetectGPT 首先使用通用的預訓練模型(例如 T5)對段落 ~xi 產生較小的擾動。然後DetectGPT將原始樣本x的對數機率與每個擾動樣本~xi進行比較。如果平均對數比高,則樣本可能來自來源模型。
ChatGPT是一個熱門話題。人們正在討論是否可以偵測到一篇文章是由大型語言模型(LLM)產生的。 DetectGPT定義了一種新的基於曲率的準則,用於判斷是否從給定的LLM生成。 DetectGPT不需要訓練單獨的分類器,不需要收集真實或產生的段落的資料集,也不需要明確地為生成的文字加上浮水印。它只使用由感興趣的模型計算的對數機率和來自另一個通用預訓練語言模型(例如T5)的文章隨機擾動。
1、DetectGPT:隨機排列和假設
#識別並利用了機器產生的通道x~pθ(左)位於logp (x)的負曲率區域的趨勢,其中附近的樣本平均具有較低的模型對數機率。相較之下,人類書寫的文字x~preal(.)(右)傾向於不佔據具有明顯負對數機率曲率的區域。
DetectGPT基於一個假設,即來自來源模型pθ的樣本通常位於pθ對數機率函數的負曲率區域,這是人類文本不同的。如果我們對一段文字 x~pθ 應用小的擾動,產生 ~x,與人類編寫的文本相比,機器產生的樣本的數量 log pθ(x) - log pθ(~x) 應該相對較大。利用這個假設,首先考慮一個擾動函數 q(.|x),它給出了在 ~x 上的分佈,x 的略微修改版本具有相似的含義(通常考慮粗略的段落長度文本 x)。例如,q(.|x) 可能是簡單地要求人類重寫 x 的其中一個句子的結果,同時保留 x 的含義。使用擾動函數的概念,可以定義擾動差異d (x; pθ, q):
#因此,下面的假設4.1也就是:
如果q(.|x)是來自掩碼填充模型(如T5)的樣本而不是人類重寫,那麼假設4.1可以以自動的、可擴展的方式進行經驗檢驗。
2、DetectGPT:自動測試
#對一篇文章進行改寫後,模型產生的文章的對數機率(擾動差異)的平均下降總是高於人工書寫的文章
對於真實數據,使用了XSum資料集中的500篇新聞文章。當提示XSum中每篇文章的前30個令牌時,使用四個不同llm的輸出。使用T5-3B施加擾動,遮蔽隨機採樣的2個單字跨度,直到文章中15%的單字被掩蓋。上面公式(1)中的期望近似於T5中的100個樣本。
上述實驗結果表明,人寫文章和模型樣本的攝動差異分佈有顯著差異;模型樣本往往有較大的擾動差異。根據這些結果,就可以透過簡單地閾值擾動差異來偵測一段文字是否由模型p產生。
透過用於估計E~x q(.|x) log p (~x) 的觀測值的標準差對擾動差異進行歸一化提供了更好的檢測,通常將AUROC 增加0.020 左右, 所以在實驗中使用了擾動差異的歸一化版本。
DetectGPT 的偵測過程偽代碼
#擾動差異可能是有用的,它測量的是什麼還無法明確解釋,所以作者在下一節中使用曲率進行解釋。
3、將微擾差異解釋為曲率
擾動差異近似於候選段落附近對數機率函數局部曲率的度量,更具體地說,它與對數機率函數的Hessian矩陣的負跡成正比。
這一節內容比較多,這裡就不詳細解釋了,有興趣的可以看看原文論文,大概總結如下:
語意空間中的取樣確保所有樣本都保持在資料流形附近,因為如果隨機添加擾動標記,預計對數機率總是下降。所以可以將目標解釋為近似限制在資料流形上的曲率。
4、結果展示
零樣本機器產生文字偵測
#每個實驗使用150到500個範例進行評估。機器產生的文字是透過提示真實文字的前30個標記來產生的。使用AUROC)評估效能。
可以看到DetectGPT最大程度地提高了XSum故事的平均檢測精度(AUROC提高0.1 )和SQuAD維基百科上下文(AUROC提高0.05 )。
對於15種資料集和模型組合中的14種,DetectGPT提供了最準確的檢測效能,AUROC平均提高了0.06。
與有監督偵測器的比較
在真實文字和生成文字的大型資料集上訓練的有監督的機器生成文字偵測模型在分佈內(頂部行)文字上的表現與DetectGPT一樣好,甚至更好。零樣本方法適用於新領域(底部一行),如PubMed醫學文本和WMT16中的德語新聞資料。
來自每個資料集的200個樣本進行評估,監督偵測器對英語新聞等分佈內資料的偵測效能與DetectGPT相似,但在英文科學寫作的情況下,其表現明顯差於零樣本方法,而在德語寫作中則完全失敗。
DetectGPT偵測GPT-3的平均AUROC與專門為機器產生文字偵測訓練的監督模型相當。
從PubMedQA、XSum和writingprompt資料集中抽取了150個範例。將兩種預訓練的基於roberta的檢測器模型與DetectGPT和機率閾值基線進行了比較。 DetectGPT 可以提供與更強大的監督模型競爭的檢測。
機器產生文字偵測的變體
這部分是看偵測器是否可以偵測到手動編輯的機器產生文字。透過用 T5–3B 中的樣本替換文字的 5 個單字跨度來模擬人工修訂,直到 r% 的文字被替換。即使模型樣本中近四分之一的文字已被替換,DetectGPT 仍能將偵測 AUROC 保持在 0.8 以上。 DetectGPT 顯示了所有修訂等級的最強檢測效能。
以上是DetectGPT:使用機率曲率的零樣本機器產生文字偵測的詳細內容。更多資訊請關注PHP中文網其他相關文章!

熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

近年來,基於深度學習的模型在目標偵測和影像辨識等任務中表現出色。像ImageNet這樣具有挑戰性的影像分類資料集,包含1000種不同的物件分類,現在有些模型已經超過了人類層級。但是這些模型依賴監督訓練流程,標記訓練資料的可用性對它們有重大影響,並且模型能夠檢測到的類別也僅限於它們接受訓練的類別。由於在訓練過程中沒有足夠的標記圖像用於所有類別,這些模型在現實環境中可能不太有用。而我們希望的模型能夠識別它在訓練期間沒有見到過的類,因為幾乎不可能在所有潛在物件的圖像上進行訓練。我們將從幾個樣本中學習

編輯|ScienceAI問答(QA)資料集在推動自然語言處理(NLP)研究中發揮著至關重要的作用。高品質QA資料集不僅可以用於微調模型,也可以有效評估大語言模型(LLM)的能力,尤其是針對科學知識的理解和推理能力。儘管目前已有許多科學QA數據集,涵蓋了醫學、化學、生物等領域,但這些數據集仍有一些不足之處。其一,資料形式較為單一,大多數為多項選擇題(multiple-choicequestions),它們易於進行評估,但限制了模型的答案選擇範圍,無法充分測試模型的科學問題解答能力。相比之下,開放式問答

將資料集分解為訓練集,可以幫助我們了解模型,這對於模型如何推廣到新的看不見資料非常重要。如果模型過度擬合可能無法很好地概括新的看不見的數據。因此也無法做出良好的預測。擁有適當的驗證策略是成功創造良好預測,使用AI模型的業務價值的第一步,本文就整理出一些常見的資料分割策略。簡單的訓練、測試拆分將資料集分為訓練和驗證2個部分,並以80%的訓練和20%的驗證。可以使用Scikit的隨機取樣來執行此操作。首先需要固定隨機種子,否則無法比較獲得相同的資料拆分,在調試時無法獲得結果的複現。如果資料集

AI視訊模型Sora爆紅之後,Meta、Google等大廠紛紛下場做研究,追趕OpenAI的步伐。最近,來自Google團隊的研究人員提出了一種通用視訊編碼器——VideoPrism。它能夠透過單一凍結模型,處理各種視訊理解任務。圖片論文地址:https://arxiv.org/pdf/2402.13217.pdf例如,VideoPrism能夠將下面影片中吹蠟燭的人分類、定位出來。圖片影片-文字檢索,根據文字內容,可以檢索出影片中對應的內容。圖片再比如,描述下面影片——一個小女孩在玩積木。還可以進行QA問答。

在2021年1月,OpenAI宣布了兩個新模型:DALL-E和CLIP。這兩個模型都是多模態模型,以某種方式連接文字和圖像。 CLIP的全名是對比語言-影像預訓練(ContrastiveLanguage-ImagePre-training),它是一種基於對比文字-影像對的預訓練方法。為什麼要介紹CLIP呢?因為目前火熱的StableDiffusion並不是單一模型,而是由多個模型組成。其中一個關鍵組成部分是文字編碼器,用於對使用者的文字輸入進行編碼,而這個文字編碼器就是CLIP模型中的文字編碼器CL

使用大型資料集訓練大型深度神經網路 (DNN) 的問題是深度學習領域的主要挑戰。隨著 DNN 和資料集規模的增加,訓練這些模型的計算和記憶體需求也會增加。這使得在計算資源有限的單一機器上訓練這些模型變得困難甚至不可能。使用大型資料集訓練大型 DNN 的一些主要挑戰包括:訓練時間長:訓練過程可能需要數週甚至數月才能完成,具體取決於模型的複雜性和資料集的大小。記憶體限制:大型 DNN 可能需要大量記憶體來儲存訓練期間的所有模型參數、梯度和中間活化。這可能會導致記憶體不足錯誤並限制可在單一機器上訓練的

如果您正在尋找有趣的話題,那麼人工智慧 (AI) 不會讓您失望。人工智慧包含一組強大的令人費解的統計演算法,可以下棋、破解潦草的筆跡、理解語音、分類衛星圖像等等。用於訓練機器學習模型的巨型資料集的可用性一直是人工智慧成功的關鍵因素之一。但所有這些計算工作都不是免費的。一些人工智慧專家越來越關注與建立新演算法相關的環境影響,這場辯論引發了關於如何讓機器更有效地學習以減少人工智慧碳足跡的新想法。回到地球要深入了解細節,我們首先需要考慮數以千計的資料中心(遍布世界各地),它們24小時全天候處理我們的計算請

多任務學習(MTL)存在著許多挑戰,因為不同任務之間的梯度可能矛盾。為了利用任務之間的關聯,作者引入了 Mod-Squad 模型,它是多個專家組成的模組化模型。模型可以靈活優化任務和專家的匹配,針對任務選擇部分專家。模型讓每位專家只對應部分任務,每個任務只對應部分專家,以最大化任務間的正向連結。 Mod-Squad 整合了 Mixture of Expert (MoE) 層到 Vision Transformer 模型中,並引入了新的損失函數鼓勵專家和任務之間的稀疏但強烈的依賴關係。另外
