人們聽到或讀到的訊息總是有可能不準確,無論是來自報紙、雜誌、網路資源或廣播。假訊息自人類文化誕生以來就一直存在,但人們從相互關聯的網路世界接收到的大量訊息,使我們特別容易在不經意間攝入被扭曲或偽造的材料。人們需要了解分享了人工智慧如何幫助解決假新聞問題和偏見的複雜性。
消費者習慣了自己的觀點受到他們在網路上讀到、看到和聽到的東西的影響,例如透過網紅行銷或名人代言。無論事實是否支持,觀點都有很大的力量,許多虛假新聞依賴激起強烈的情緒。當涉及到人們的注意力和感覺時,經常需要停下來思考我們所聽到或讀到的是否準確。
根據麻省理工學院的研究人員打開一個新窗口,真實新聞在推特上傳播到1500人所需的時間是假新聞的六倍。此外,準確新聞和假新聞的鏈條長度(分享社群媒體貼文的人數)是高度不成比例的。可證實的新聞從未超過10條,但假新聞增加到19條。這部分是由於惡意行為者使用機器人群來傳播不正確的訊息。
假訊息現在在全球影響著人們、政府和企業。在當今不斷擴張的數位資訊經濟中,發現並分離所謂的「假新聞」是一項重大任務。然而,人工智慧(AI)的改進可能會使線上資訊使用者更容易區分現實和虛構。
以下來探討如何利用人工智慧來阻止錯誤訊息的傳播,並使網路成為一個更平衡的新聞來源。
透過使用先進的演算法來發現和接觸可能容易吸收資訊的人群,合法公司利用人工智慧來定位和瞄準一條訊息或觀點最可能的消費者。例如,Google公司已經實現了它的RankBrain演算法,在2015年打開了一個新的窗口,以改善其識別權威結果的能力。
為了區分電腦生成的材料和人工生成的文章,基於人工智慧的技術可以對文本內容進行語言分析,並找到詞語模式、句法結構和可讀性等線索。這些演算法可以分析任何文本,透過查看單字向量、單字位置和內涵來找到仇恨言論的實例。
假新聞來源通常在資訊擴散之前來自一個非法來源。 Fandango計畫在使用人工事實查核人員認定為虛假的文章後,尋找具有相同術語或主張的社群媒體貼文或網路網站。這使得記者和專家能夠追蹤虛假資訊的來源,並在他們有機會失控之前消除任何危險。
Politifact、Snopes和FactCheck使用手動編輯進行必要的主要調查,以確認報告或影像的真實性。一旦識別出假貨,人工智慧系統就會在網路上搜尋可能引發社會動盪的類似資訊。此外,如果確定該資料是真實的,應用程式可以為網站文章分配聲譽評分。
一些人工智慧引擎目前在其評估評分中使用以下措施:
•情緒分析:記者對新聞總體或他們所寫的特定主題的態度。
•觀點分析:對記者的作品進行個人感受、觀點、信念或評估
•修訂分析:研究新聞故事如何隨著時間的推移而變化,以及它如何操縱公眾的看法和情緒。
•宣傳分析:使用宣傳分析偵測多達18種不同的說服策略,可以幫助您發現潛在的假訊息。
所有這四個結合起來可以全面了解一篇文章的可信度,以及我們面臨的問題。
像GPT-3這樣的語言模型已經可以基於一行提示創建文章、詩歌和散文。人工智慧已經接近完美地製造出與人類相似的材料。人工智慧使得操縱各種資訊變得如此容易,以至於FaceSwap和DeepFaceLab等開源程式可能會讓缺乏經驗的新用戶成為潛在的社會動盪中心。
這些問題變得更糟,因為這些語意分析演算法無法破解仇恨言論圖片的實質,這些圖片並沒有被修改,而是在有害或不準確的背景下傳播。
一旦發現詐騙內容,刪除它比看起來更具挑戰性。有些組織可能被指控進行審查,並試圖隱藏某一組織或另一組織認為不真實的資訊。在言論自由權利和打擊虛假資訊和假新聞之間找到平衡是很困難的。
人工智慧通常也缺乏辨識幽默和惡搞的能力。因此,如果以輕鬆或開玩笑的方式使用假新聞或虛假訊息,則可以將其歸類為惡意虛假資訊。但不可否認的是,人工智慧可以成為打擊假新聞的巨大資產。在打擊虛假網路新聞的戰鬥中,科技至關重要,因為它可以處理大量的材料。
假新聞不是僅靠演算法就能解決的問題-我們需要在如何獲取知識的過程中改變心態。雖然專業團體之間協作知識的眾包對評估原始數據至關重要,但知識淵博的用戶社群也可以支援道德監測行動。
缺乏各方參與的積極行動可能加速公眾對機構和媒體失去信心,這是無政府狀態的前奏。在人類能夠發展出客觀分析線上內容的能力之前,基於人工智慧的技術必須成為打擊網路錯誤訊息的合作夥伴。
以上是人工智慧如何消除網路上的假新聞和偏見的詳細內容。更多資訊請關注PHP中文網其他相關文章!