使用ChatGPT時,為什麼不建議把AI擬人化?

PHPz
發布: 2023-06-03 10:20:16
轉載
1089 人瀏覽過

似乎每個人都在談論人工智慧。如果你感到無法理解別人在說什麼或不確定他們在做什麼,不要擔心,我能提供幫助。

我邀請了業內一些最優秀的人工智慧記者,來分享他們關於如何自信地談論人工智慧的最佳建議。我和我的同事每天都沉迷於這項技術,傾聽人工智慧專家的意見,然後將他們所說的話翻譯成清晰的、有關聯的文字,並且包括重要的背景資料。所以,我們對我們所談論的東西略知一二。

以下是在談論人工智慧時需要注意的七件事。

使用ChatGPT時,為什麼不建議把AI擬人化?

不要擔心聽起來很蠢

#《華盛頓郵報》科技文化記者尼塔莎·蒂庫(Nitasha Tiku)表示:「儘管科技業堅持認為大型語言模型將改變世界,但它並不善於清楚地解釋自己。如果你感到困惑,你並不是一個人。」她補充道,關於人工智慧的對話充斥著行話,這只起到了反作用。 「幻覺(Hallucination)」是人工智慧系統虛構事物的一種特殊說法;而「提示工程師」只是那些知道如何與人工智慧對話以獲得他們想要的東西的人。

蒂庫建議人們觀看 YouTube 上關於人工智慧概念和模型的解說。她說:「跳過人工智慧網紅,選擇更低調的主持人。如果你需要簡潔的技術方案,IBM Technology 是一個不錯的選擇。可以幫助揭開人工智慧工作原理的神秘面紗。」

無論你怎麼談論人工智慧,都會有人抱怨。 《麻省理工科技評論》人工智慧資深編輯威爾道格拉斯海文(Will Douglas Heaven)表示:「有時感覺人工智慧的世界已經分裂成了許多粉圈,每個人都在高談闊論,堅持自己的定義和信仰,卻不想讓別人搞懂。弄清楚人工智慧對你來說意味著什麼,並堅持下去。」

使用ChatGPT時,為什麼不建議把AI擬人化?

具體描述你所說的是什麼樣的人工智慧

《華爾街日報》中國科技與社會記者凱倫·郝(音,Karen Hao)表示:「在公共話語中,『人工智慧』通常被視為一種東西,但它實際上是一百種不同事物的集合。」。

郝說,區分你所說的是人工智慧的哪個功能很有幫助,這樣你就可以進行更具體的對話:你說的是自然語言處理和語言模型,還是電腦視覺?或不同的應用程序,例如聊天機器人或癌症檢測?

《時代》雜誌的特約記者比利·佩里戈(Billy Perrigo)說,把「人工智慧」當作一個單一的東西來談論掩蓋了這項技術的現實。

他說:「有不同的模型可以做不同的事情,對相同的提示會有不同的反應,而且每個模型也有自己的偏見。」

使用ChatGPT時,為什麼不建議把AI擬人化?

保持真實

「對於新的人工智慧產品和工具來說,兩個最重要的問題很簡單:它是做什麼的?它是如何做到的?」The Verge 的高級編輯詹姆斯·文森特(James Vincent)說。

目前,討論人工智慧的長期風險和潛力已經成為人工智慧領域的趨勢。文森特補充道,人們很容易被假設的場景分散注意力,想像這項技術未來可能會做什麼,但關於人工智慧的討論通常更適合務實,專注於實際,而不是假設。

科技業也有誇大其產品能力的傾向。道格拉斯·海文說:「要秉承懷疑、質疑的態度。」

當談到 AGI 或通用人工智慧時,這一點尤其重要,它通常用來指與人一樣聰明的軟體(不管這本身意味著什麼)。

他補充說:「如果某件事聽起來像糟糕的科幻小說,也許就是這樣。」

使用ChatGPT時,為什麼不建議把AI擬人化?

調整你的期望

#語言模型通常會“生造假象”,為 ChatGPT 等人工智慧聊天機器人帶來動力。英國《金融時報》人工智慧編輯馬杜米塔·穆爾賈(Madhumita Murgia)表示,這對人們來說可能令人討厭和驚訝,但這就是這些模型的工作方式。

重要的是要記住,語言模型不是為了找到並給出「正確」答案而建立的搜尋引擎,它們也沒有無限的知識。穆爾賈補充道,考慮到你的問題和它們所接受的一切訓練,它們只是產生最有可能的單字的預測系統。

使用ChatGPT時,為什麼不建議把AI擬人化?

不要擬人化

#人工智慧聊天機器人吸引了公眾的想像力,因為它們生成的文字看起來像是人類寫出來的東西,並且給用戶一種與電腦程式以外的東西互動的錯覺。但實際上它們就是電腦程式。

Motherboard 的記者 Chloe Xiang)表示,不要將這項技術擬人化,也不要將人類特徵歸因於此,這一點非常重要。 「不要給它一個(性別)代名詞,或說它能感覺、思考、相信等等。」

這樣做只會加深人們的誤解,即人工智慧系統比他們更有能力和感知能力。

我發現這真的很容易出錯,因為我們的語言還沒有跟上描述人工智慧系統正在做什麼的方法。當有疑問時,我會用「電腦程式」取代「人工智慧」。你突然會意識到,使用電腦程式導致某人與他的妻子離婚是很愚蠢的

使用ChatGPT時,為什麼不建議把AI擬人化?

一切都與權力有關

#《連線》資深撰稿人卡里·約翰遜(Khari Johnson)表示,雖然炒作和糟糕的事情可能會佔據新聞頭條,但當你談論人工智慧時,思考權力的作用至關重要。

約翰遜說:「權力是製造人工智慧的原材料的關鍵,例如計算和數據;是質疑人工智慧道德使用的關鍵;也是了解誰有能力獲得電腦科學高級學位,以及誰在人工智慧模型設計過程中主導的關鍵。」

郝對此表示贊同。她說,我們要記住人工智慧開發是非常政治化的,涉及大量資金和利益相互競爭的許多研究組織,這也很有幫助:「有時圍繞人工智慧的對話與其說是技術,不如說是人。」

使用ChatGPT時,為什麼不建議把AI擬人化?

不要把它當成機器人

不要把人工智慧描繪成一個可怕的機器人或無所不知的機器。 VentureBeat 的資深作家 Sharon Goldman說:「記住,人工智慧本質上是人類將大數據集與大量運算能力和智慧演算法相結合的電腦程式設計。」

支援:Ren

以上是使用ChatGPT時,為什麼不建議把AI擬人化?的詳細內容。更多資訊請關注PHP中文網其他相關文章!

相關標籤:
來源:sohu.com
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板
關於我們 免責聲明 Sitemap
PHP中文網:公益線上PHP培訓,幫助PHP學習者快速成長!