首頁 > 科技週邊 > 人工智慧 > 2024年的前9個AI爭議-Analytics Vidhya

2024年的前9個AI爭議-Analytics Vidhya

Lisa Kudrow
發布: 2025-03-13 09:51:15
原創
458 人瀏覽過

2024年的前9個AI爭議-Analytics Vidhya

2024年標誌著人工智能的變革時期,以巨大的創新和挑戰為標誌。估計5000億美元的全球AI市場價值創造了無數的工具,應用程序以及改變了行業和我們日常生活的公司。這些技術奇蹟還伴隨著爭議的浪潮,引發了有關道德,社會影響和對AI發展的問責制的辯論。本文涵蓋了2024年的主要AI爭議。

目錄

  • 2024年的前9個AI爭議
    • Openai vs Elon Musk(2024年3月)
    • Grok ai錯誤地指責NBA星星狂歡(2024年4月)
    • Openai vs Scarlett Johansson(2024年5月)
    • Google的AI概述爭議(2024年5月)
    • 麥當勞的末端IBM直通訂單測試(2024年6月)
    • Donotpay“機器人律師”爭議(2024年6月)
    • Ilya Sutskever推出了安全超級智能Inc(SSI)(2024年6月)
    • Clearview AI爭議(2024年9月)
    • 亞馬遜的AI招聘工具偏見(正在進行)
  • 結尾

2024年的前9個AI爭議

從備受矚目的訴訟和企業醜聞到深層訴訟的道德困境以及AI決策中的錯誤,以下是與AI相關的最高爭議,在時間順序上安排了:

Openai vs Elon Musk(2024年3月)

特斯拉首席執行官埃隆·馬斯克(Elon Musk)和薩姆·奧特曼(Sam Altman)在2015年將Openai共同創立了非營利組織,其任務是推動人工智能以促進更大的利益。但是,馬斯克在2018年離開該組織標誌著兩者之間有爭議的關係的開始。此後,馬斯克(Musk)對Openai向營利性模式,其領導層以及與Microsoft等公司的合作提出了擔憂。 2024年3月,馬斯克通過針對Openai提起訴訟來升級這一爭執。他指控在自動駕駛模型中濫用特斯拉的專有數據。

這種競爭不僅與人工智能技術有關,還反映了個人緊張局勢。馬斯克稱阿爾特曼為“山姆斯·薩姆”。而阿爾特曼(Altman)在採訪中將馬斯克(Musk)標記為“惡霸”。批評家認為,這一爭執是由他們的競爭野心所推動的。特別是馬斯克建立了Xai,這是Openai的直接競爭對手。這種情況突出了AI治理,競爭和道德AI發展的廣泛含義。

這就是為什麼埃隆起訴Openai:

“似乎很奇怪的是,某事可以是一個非營利的開源,並且以營利性封閉的來源以某種方式改變了自己。”
- @elonmusk pic.twitter.com/zdghbq0h8e

- Tonya de Vitti(@TonyAdeVitti)2024年3月6日

另請閱讀:什麼是負責人AI?為什麼我們需要它?

Grok ai錯誤地指責NBA星星狂歡(2024年4月)

2024年4月,當Grok AI報導NBA明星克萊·湯普森(Klay Thompson)曾參與磚瓦破壞狂潮時,一種監視工具,以幫助警察陷入困境。這一切之所以開始,是因為Grok在討論湯普森(Thompson)對陣薩克拉曼多國王隊(Sacramento Kings)的一場比賽中的糟糕表現時誤解了籃球lang語,在十項嘗試中命中率為零。 “射擊磚”一詞在籃球中是一個常見的慣用表達,可以描述一個不成功的射門。 AI誤解了這句話是實際故意破壞的一個實例,涉及在薩克拉曼多的家中扔磚。

毫無根據的報告指出,房屋已破壞,當局正在調查事件。這個虛假的故事在社交媒體上廣泛傳播,導致大量用戶處於困惑和歡笑狀態。許多人嘲笑了X上的情況。他們開始製作模因和搞笑帖子,傳播了不真實的故事。儘管上下文很容易被誤解,但格羅克的報告仍然活了好幾天。因此,AI系統如何看待人類語言的細微差別和背景來強調問題。

對Grok AI的強烈反對很快就出現了。行動主義和評論要求採用更強大的監管標準和AI系統更好的審計實踐。他們引用了偏見的培訓數據固有的一些危險。例如,來自少數社區的人的格羅克(Grok)被標記不成比例,使破壞性的刻板印象永久存在,並傳播了不真實的人。 Grok事件圍繞著AI失敗的含義開展了更廣泛的談判。

Twitter的新型AI驅動趨勢標籤認為克萊·湯普森(Klay Thompson)被指控與磚塊破壞房屋

這是在對陣國王pic.twitter.com/kslnh4nqj8的0-10之後。

- 文化渴望嗎? (@culturecrave)2024年4月17日

Openai vs Scarlett Johansson(2024年5月)

斯嘉麗·約翰遜(Scarlett Johansson)在得知Openai用她的聲音為AI生成的病毒視頻廣告中霍克(Hawk)的假產品提起訴訟,在該產品中,她的聲音在未經她的知識或允許的情況下被合成。視頻廣告在社交媒體之間遍布遙遠,並提出了有關所使用的深擊技術的關鍵法律和道德問題。

在法庭上,約翰遜的律師聲稱,未經授權使用她的肖像侵犯了她的隱私和宣傳權。該訴訟闡明了濫用Deepfake技術的潛力,並引起了一個更普遍的問題:如何被名人和公眾人物濫用,未經同意就可以輕鬆地重複其身份。它開始了有關AI生成的內容和協議的更清晰法規的辯論,以同意人們的肖像。

這一AI爭議導致OpenAI宣布計劃修改其數據集政策,以確保更嚴格的同意要求向前發展。該事件標誌著人工智能和深擊時代關於知識產權的持續辯論的關鍵時刻,強調了AI發展中道德標準的必要性。

我們已經聽到了有關如何在Chatgpt(尤其是Sky)中選擇聲音的問題。我們正在努力暫停天空的使用。

閱讀有關我們如何選擇這些聲音的更多信息:https://t.co/r8wwwzju36l

- 2024年5月20日Openai(@openai)

Google的AI概述爭議(2024年5月)

2024年5月,Google在推出名為AI概述的新的AI生成的功能方面遭受了嚴重的反對。新功能旨在總結一些句子的搜索結果,以使用戶更容易在更少的時間內找到答案。但是,在發布後的幾天內,一系列荒謬和荒謬的反應變得臭名昭著,這些反應使公眾對AI生成的內容的信任受到質疑。

AI的誤導信息

根據用戶的說法,AI在許多主題上顯示了有關以下許多主題的誤導性信息:

  1. 歷史虛假陳述:在回答有關美國穆斯林總統的問題時,AI說奧巴馬是其中唯一的一個,實際上是不正確的,缺乏細微差別。
  2. 荒謬的建議:被要求建議如何防止奶酪滑落披薩之後,AI建議添加“⅛杯無毒膠水”,顯然是荒謬的答案。其他荒謬的建議包括為其礦物質含量食用岩石,並將汽油放入意大利麵條以供風味。
  3. 危險的建議: AI還發表了錯誤的說法,即從飛機跳下來的降落傘不比背包更好,這突出了依靠這種不正確信息的危險。

當用戶對這種情況發表自己的懷疑和沮喪時,這些虛假性在社交媒體上引起了巨大的嘲笑。許多人通過質疑Google的AI系統及其提供信息能力的完整性來升級這種情況。

它看到了這種憤怒,通過承認Google發出的回應問題來接受對AI概述面臨的問題的批評。 “這些問題源於信息差距,當沒有優質的來源來支持諸如罕見的查詢之類的事情時,有時會帶來不足的問題,並且通常會帶來不足的質量來源,並且通常值得信賴的網站來產生“不良”信息。”

Google表示將對其係統的監督和質量檢查進行一系列評論和升級。這也將進一步限制更具體的搜索查詢的應用程序,同時繼續致力於進一步的無錯誤輸出的開發。

我知道我已經對AI有偏見,但是在嘗試了幾次Google的事情后,確實很糟糕。就像在某些時候,所有道德和經濟的擔憂都只是將“這不起作用”的公寓置於後座。 https://t.co/fgudh2nxci

- 克里斯·穆尼(Chris Mooney)?

另請閱讀:Google -2024 Roundup的前6個AI更新

麥當勞的末端IBM直通訂單測試(2024年6月)

麥當勞(McDonald's)於2024年6月取消了對IBM AI驅動的語音訂單系統的測試,此前重複出現了準確的問題和客戶滿意度。這個概念是在更簡單但面臨重大的操作問題上進行訂購過程。

測試提出了以​​下關鍵問題:

  1. 命令誤解:客戶抱怨他們的訂單是由AI系統造成的或不間斷的。從而導致直通車窗的延遲和刺激。
  2. 客戶體驗:錯誤不僅是給客戶煩惱的原因,而且導致等待時間增加。這與AI的實施中的效率提高到截然相反。

當麥當勞結束審判時,行業分析師提出了有關AI技術準備大量採用客戶服務角色的問題。許多分析師指出,儘管AI具有潛在的好處,但如果沒有充分解決,其當前的局限性可能會導致嚴重的操作中斷。

麥當勞僱用了IBM通過訂購系統開發基於AI的驅動器。

它的失敗率很高,現在MCD正在退出

很明顯,我們應該使用AI,而IBM是錯誤的供應商。

我認為“沒有人因購買IBM而被解僱”不再適用。 pic.twitter.com/WH41HSTOYV

- 2024年6月17日Sheel Mohnot(@pitdesi)

Donotpay“機器人律師”爭議(2024年6月)

2024年6月,Donotpay是合法的AI平台,將自己稱為“世界上第一位機器人律師”。由於對其主張和產品的多次法律和公眾審查,它在其最大的AI爭議之一中發揮了最大的作用。該公司最初是由約書亞·布勞德(Joshua Browder)於2015年成立的,最初開始旨在幫助用戶打擊法律挑戰,例如免費爭奪停車票和免費生產法律文件。但是,據報導,人工智能提供了不好的法律建議。這些法律建議可能會導致依靠其服務的人造成嚴重的局勢。

FTC的投訴

聯邦貿易委員會介入後加深的爭議加深了。他們聲稱Donotpay從事未經授權的法律實踐,未能實現諾言。 FTC的投訴指出了幾個要點:

  1. 誤導性的主張: Donotpay宣傳其服務能夠生成“ Ironclad”法律文件,並提供與人類律師相當的建議。但是,FTC發現AI沒有經過足夠的測試,以確保其輸出在法律上是合理的或相當於合格律師所產生的。
  2. 消費者危害:用戶報告了AI生成的文檔起草不正確或包含不准確性的實例,使其在法律背景下無法使用。一位原告指出,由於其不合格的質量,他無法使用Donotpay創建的文件。
  3. 和解協議:由於FTC調查結果,Donotpay同意支付193,000美元的罰款,並限制不告訴在2021年至2023年之間使用該服務的消費者,Donotpay出售的法律產品的限制。它還同意停止對未來與Donotpay律師更換人類律師的無支持的主張。

這一丑聞提出了有關在法律等高風險領域中使用AI的可行性和道德的關鍵問題。批評家認為,AI可用於執行某些任務,但不應作為替代專業法律建議的銷售。該事件在代表其能力和保護消費者方面就AI公司的責任引發了辯論。

Hot Take:我不確定我不太關心對Donotpay的未經授權的法律索賠實踐,就像我對該技術無法正常工作的指控所做的那樣。

[長線警告。]

- Tessa Molnar(@TessavMolnar)2023年3月10日

另請閱讀:法律部門的人工智能革命:聊天機器人在法庭上佔據中心地位

Ilya Sutskever推出了安全超級智能Inc(SSI)(2024年6月)

2024年6月,OpenAI的聯合創始人Ilya Sutskever宣布推出Safe Unsertelligence Inc.(SSI),該計劃旨在優先考慮人工智能發展的道德框架。這一舉動是在圍繞Openai的各種爭議之後對先進AI技術的安全性和道德意義的越來越擔憂。 SSI的任務是確保高級AI系統負責任地開發和部署。主要目標包括:

  1. 建立道德準則: SSI旨在建立整體道德框架,以通過安全和問責制指導AI發展實踐。
  2. 促進透明度:該小組將主張以更透明的方式進行AI操作的原因,這將使利益相關者詳細了解AI如何做出決策和工作。
  3. 決策者參與: SSI將努力與政策制定者和商業領袖互動,以製定AI技術的監管政策。

支持者稱讚薩斯克佛的舉動及時而急需,以解決AI周圍的道德問題。但另一方面,批評者將其視為對Openai的爭議的反應。他們質疑SSI是否真正地採取行動改變現狀,或者只是在採取公共關係策略來幫助挽救Openai強烈反對。

2/8 Ex-Openai聯合創始人啟動自己的AI公司

離開Openai僅一個月後,前共同創始人Ilya Sutskever與Daniel Gross和Daniel Levy建立了Safe Superintelligence Inc.。 pic.twitter.com/nfx1rtqxup

- 2024年6月21日AI Edge(@The_AI_EDGE)

Clearview AI爭議(2024年9月)

2024年9月,臭名昭著的面部識別公司Clearview AI的憤怒浮出水面,他最近的啟示是刮擦毫無戒心的個人以擴大面部數據庫的數據的啟示,遭到了越來越多的火災。主要向執法機構提供軟件的公司已被要求獲得未經同意從互聯網和社交媒體網站獲取圖像的手段。這一爭議引起了人們關於侵犯隱私和這種技術在執法部門中應用的道德規範的辯論。

據報導,Clearview AI託管了從許多在線資源中刪除的300億張圖像。這樣的行為引起了倡導者和民權組織之間的嚴重警報。他們對Clearview對法律和道德標準造成的違規行為提出了擔憂。 Clearview未經人們同意匯總圖像。這進一步創造了批評家認為可以在不知道或允許的情況下對他們進行跟踪和確定的個人的“永久陣容”。

反對Clearview AI的反彈

反對Clearview AI的反彈並不是什麼新鮮事。該公司在各個司法管轄區都面臨著多項訴訟和監管行動。例如:

  • 罰款和禁令: 2024年9月,荷蘭當局因建立非法面部識別數據庫而罰款3050萬歐元。荷蘭數據保護局強調,面部識別技術是高度侵入性的,不應不加區分地部署。
  • 定居點:較早的定居點包括與ACLU的協議。它禁止Clearview將其服務出售給私人和企業。儘管採取了此類訴訟,但Clearview仍保持活躍,對製定法規是否足夠有效。

醜聞引起了公民自由團體和激進主義者的廣泛譴責,他們正在努力尋求更強大的管理面部識別技術的監管措施。許多人說,Clearview的實踐體現了令人不安的趨勢,在這些趨勢中,隱私權被擱置為監視能力。法律鬥爭表明迫切需要進行全面的立法來保護人們的生物識別數據。

Clearview AI因非法收集面部數據而被荷蘭當局罰款3370萬美元,違反了歐盟隱私法。該公司否認不當行為。

發現我如何在AI解決方案中出售$ 1B!立即獲取免費副本!

- 諾埃爾?拉丁語中的AI? (@noellerussell_)2024年10月8日

亞馬遜的AI招聘工具偏見(正在進行)

最近,亞馬遜的AI招聘工具因在招聘中偏向性別和種族而受到批評。已經進行了幾次糾正疾病的嘗試。但是,這表明它對男性候選人有利於針對各個方面相同的女性的技術職位。這是對AI驅動決策過程中公平和問責制的嚴重質疑。

關於亞馬遜AI招聘工具的爭議始於發現該算法是對十年來提交的簡歷進行培訓的,主要是由男性候選人提交的。因此:

  1. 性別偏見:該工具對女性申請人產生了偏見。它正在懲罰包括與婦女經驗或資格相關的條款的簡歷。
  2. 種族差異:同樣,由於培訓數據中嵌入的歷史偏見,來自少數族裔背景的候選人面臨著劣勢。

這使亞馬遜最終放棄了該工具,但只有在公平公平的招聘實踐中證明其無效之後。即使這些偏見繼續面臨調整,亞馬遜開發的AI招聘工具也從未見過它的最後日子,因為批評不平等在招聘方面得到了加強而不是減少。

亞馬遜創建了一個用於簡歷排序的AI,以使過程更有效。它教會使用過去的招聘實踐作為例子

人工智能運作完美。它精確地複制了給出的示例。因此,它開始對女性進行描述。

示例 @ 8:16https://t.co/eupwmjmkcb

- Askaubry? ? (@ask_aubry)2023年2月15日

結尾

當我們進入2025年時,2024年的AI爭議是AI社區的重要教訓。儘管新的一年將帶來自己的挑戰,但這些事件凸顯了需要更具道德,透明和負責的AI發展的需求。這些AI爭議提醒公司和創新者,賭注比以往任何時候都高。對於一個錯誤,可能會侵蝕公眾的信任並造成現實世界的傷害。然而,隨著爭議的機會。通過解決這些弱點,公司可以創建創新的技術,同時尊重人類的尊嚴,隱私和社會規範。儘管旅程將具有挑戰性,但它仍然具有更周到,道德和有影響力的AI驅動的未來的希望。

以上是2024年的前9個AI爭議-Analytics Vidhya的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
作者最新文章
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板