首頁 > 科技週邊 > 人工智慧 > 剽竊、作弊,ChatGPT竟然偷偷產生了12篇署名論文! Marcus炮轟Ta變成CheatGPT

剽竊、作弊,ChatGPT竟然偷偷產生了12篇署名論文! Marcus炮轟Ta變成CheatGPT

王林
發布: 2023-04-13 15:19:03
轉載
1080 人瀏覽過

馬庫斯又來懟ChatGPT了!

今天,馬庫斯在個人部落格裡寫道:事情越來越離譜了。

剽竊、作弊,ChatGPT竟然偷偷產生了12篇署名論文! Marcus炮轟Ta變成CheatGPT

吹之前看看答案對不對

事情的起因,源自於Fred Ehrsam的一條推文。

剽竊、作弊,ChatGPT竟然偷偷產生了12篇署名論文! Marcus炮轟Ta變成CheatGPT

Ehrsam同時詢問ChatGPT和Google「1公里用時4分21相當於1英哩用時多久?」他表示,ChatGPT給出了精確簡潔的答案,而谷歌卻都做不到。

針對這篇帖子,馬庫斯說:「它不可一世,傲慢自得,彷彿它就是未來世界的標誌。但順便說一句,它的回答是錯誤的。 」

ChatGPT並沒有將單位正確轉換,作者只是一廂情願地認為,這個偉大的新工具給出的答案一定準確(甚至精確到秒!),他根本沒有進行檢查。

這就是問題所在。統計學的單字預測不能取代真正的數學,但很多人卻不這麼認為。 (每公里4分21秒的速度就是每英里7分鐘的速度。如果你能好好提問,它會給你正確的答案。)

ChatGPT這種「對了,又沒完全對」的答案中,最糟糕的部分不是它錯了,而是它看上去信誓旦旦。如此令人信服,推特網友甚至沒有想到要懷疑它。

這就是現狀:濫用ChatGPT,人們信任它,甚至吹噓它,即使它與正確答案背道而馳。

想知道什麼比炒作更糟嗎?人們開始將ChatGPT視為一個可靠的、有充分資質的科學合作者。

幫幫忙,別把ChatGPT寫成共同作者

#馬庫斯說,關於ChatGPT,昨天的頭條是炒作其暴虐谷歌的能力。而今天,輿論討論的是ChatGPT成為論文合著者。

在去年12月發表的一篇預印本論文中,作者一欄中赫然驚現了ChatGPT!

剽竊、作弊,ChatGPT竟然偷偷產生了12篇署名論文! Marcus炮轟Ta變成CheatGPT

無獨有偶,ChatGPT的名字自去年12月起,頻繁地出現在醫學領域一些經過同行評審的論文當中:

剽竊、作弊,ChatGPT竟然偷偷產生了12篇署名論文! Marcus炮轟Ta變成CheatGPT

論文網址:https://www.oncoscience.us/article/571/text/

根據Semantic Sc​​holar的數據,6週大的ChatGPT已經有兩份出版物,12個合著者身分和一份引文。

我真誠地希望這種趨勢不會持續下去。

馬庫斯給了五個原因:

  1. #ChatGPT只是一個工具,不是人類。說它是科學家,不如說它充其量更像是拼字檢查器,一個語法檢查器,或一個統計包。

它無法提供真實的想法,不會設計精心控制的實驗,也不能從已有文獻中得到啟發。你不會讓拼字檢查器或電子表格成為合著者。

例如,你會在參考文獻中引用一些資源,例如像SPM這樣的用於大腦分析的軟體包。即使這對研究工作很重要,但沒人會把SPM列為合著者。

  1. 共同作者在不同領域的定義不同,但通常情況下,共同作者需要做出實質的科學貢獻。

ChatGPT根本無法很好地推理來做到這一點;鑑於ChatGPT目前對科學理解的理解水平,賦予其作者身份是對科學過程本身的不尊重。

馬庫斯在先前的文章中寫道,ChatGPT對物理、生物、心理、醫學等學科完全不了解,並向大家解釋了「又聰明又蠢」是什麼樣子。

剽竊、作弊,ChatGPT竟然偷偷產生了12篇署名論文! Marcus炮轟Ta變成CheatGPT

在這個回答中,ChatGPT一本正經地說,科學家發現西班牙油條是居家最好用的手術工具。

  1. ChatGPT已經證明自己既不可靠又不真實。它會產生離譜的計算錯誤,編造虛假的傳記細節,亂用詞彙,定義根本不存在的科學現象。

如果你不知道這一點,你就不了解人工智慧研究;如果你知道這一點卻不在乎,這更糟。如果你讓它成為合著者,這表示你只是想跟風,而不是真正進行研究。

  1. 人們對ChatGPT濾鏡太強。

你不會相信一台只有75%正確率的計算器,那麼,如果你公然宣稱,你對用「劣跡斑斑」的人工智慧工具「寫」論文感到興奮,我為什麼要信任你?

  1. 科學寫作的目的,是為了清楚地向他人傳授真理。

如果你把ChatGPT視為有知覺的人-雖然顯然不是,你就是在誤導大眾產生同樣的感覺;你不是在傳播科學觀念,只是在炒作廢話。請停止這種行為。

最後馬庫斯總結:真朋友不會允許ChatGPT成為你論文的共同作者。

如果說馬庫斯之前與LeCun等人激情辯論關於人工智慧前景、AGI的可實現性、以及指責LeCun關於「人工智慧路線圖」是奪他人之功,多多少少帶了個人恩怨的話,那麼此次,對ChatGPT表達的擔憂和警惕就很切中要害了。

剽竊、作弊,ChatGPT竟然偷偷產生了12篇署名論文! Marcus炮轟Ta變成CheatGPT

實際上,馬庫斯上面說的關於ChatGPT與論文造假、和版權爭議的問題,在ChatGPT僅推出幾週後,就成為了現實。

近日,弗曼大學的一位哲學教授達倫‧希克就發現,一名學生交的一篇論文是人工智慧生成的。

希克說,當他看到論文中的明顯經過精心編排、但卻是的錯誤的訊息時,他就開始懷疑了。

他把論文提交給Open AI的ChatGPT偵測器,結果顯示,這篇論文有99%的可能性是由人工智慧產生的。

剽竊、作弊,ChatGPT竟然偷偷產生了12篇署名論文! Marcus炮轟Ta變成CheatGPT

無獨有偶,北密西根大學教授安東尼·奧曼(Antony Aumann)也表示,他也發現兩個學生提交了由ChatGPT編寫的文章。

在發現這兩篇文章的寫作風格有點不對勁後,奧曼將文章提交給聊天機器人,問它們是由該程式寫的可能性有多大。當聊天機器人說它有99%的把握是由ChatGPT寫的,他就把結果轉寄給學生了。

希克和奧曼都表示,他們與學生對質後,所有學生最終都承認了違規行為。希克的學生沒有通過這門課,而奧曼讓他的學生從頭開始重寫論文。

論文雖有錯誤,但寫的不錯

#兩位教授表示,這兩篇AI生成的論文中的某些關鍵之處能看出來比較明顯的痕跡。希克說,他發現的這篇論文提到了課堂上沒有提到的幾個事實,並提出了一個沒有實際意義的主張。

他說:「從字面上看,這是一篇寫得很好的文章,但仔細一看,關於多產的哲學家大衛-休謨的一個說法毫無意義,甚至是完全是錯誤的。」

這種修飾得完美的錯誤,就是AI代筆的最大的破綻。

對奧曼來說,聊天機器人只是寫得太完美了。 「我認為這個聊天工具寫得比我95%的學生都要好。」

「就是突然間,你有一個沒有表現出這種水平的思考或寫作能力的人,寫出了完全符合所有要求的東西,有複雜的語法和複雜的思想,與文章的提示直接相關,一下就感覺很不對勁。」他說。

阿巴拉契亞州立大學的哲學教授克里斯托弗·巴特爾說,雖然AI生成的文章的語法幾乎完美,但實質內容往往缺乏細節。

「沒有背景,沒有深度、沒有洞察力。」

#難以證實的剽竊:不招供就沒轍

不過話說回來,這是幾位教授的學生都承認了AI代筆,實際上,如果學生拒不承認使用人工智慧寫論文,學術界很可能會陷入困境。

巴特爾說,目前一些學術機構的規則還沒有發展到打擊這種作弊的程度。如果學生挖空心思,否認使用人工智慧,那麼實際上很難確切證明這種作弊行為。

他也說,OpenAI自家提供的AI檢測工具很好,但不完美。

這個工具是對文字是由人工智慧產生的可能性進行了統計分析,給出一個機率。

而現行政策一般是,必須有明確和可證實的證據來證明論文是假的,才算石鎚,這就使我們處於一個很困難的位置。如果回傳結果是95%的可能性是人工智慧產生的文章,還有5%的可能性不是。

在希克的案例中,儘管偵測網站說「99%確定」這篇論文是由人工智慧產生的,但實際上,關鍵還是在於學生自己承認了,否則僅憑這個機率結果,對確認作弊本身是遠遠不夠的。

希克表示,供詞很重要,除此之外,其他一切都是間接證據,對於人工智慧生成的內容,一般沒有物質證據,而物質證據比間接證據有更大的分量。 "

奧曼則說,儘管他認為聊天機器人的分析足以成為採取行動的證據,但利用人工智慧抄襲作弊,對高校來說仍然是一個新的挑戰。

畢竟,現在憑ChatGPT以假亂真的高超本事,只要用戶想,它變成CheatGPT實在是分分鐘的事。

以上是剽竊、作弊,ChatGPT竟然偷偷產生了12篇署名論文! Marcus炮轟Ta變成CheatGPT的詳細內容。更多資訊請關注PHP中文網其他相關文章!

相關標籤:
來源:51cto.com
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板