2024年標誌著人工智能的變革時期,以巨大的創新和挑戰為標誌。估計5000億美元的全球AI市場價值創造了無數的工具,應用程序以及改變了行業和我們日常生活的公司。這些技術奇蹟還伴隨著爭議的浪潮,引發了有關道德,社會影響和對AI發展的問責制的辯論。本文涵蓋了2024年的主要AI爭議。
從備受矚目的訴訟和企業醜聞到深層訴訟的道德困境以及AI決策中的錯誤,以下是與AI相關的最高爭議,在時間順序上安排了:
特斯拉首席執行官埃隆·馬斯克(Elon Musk)和薩姆·奧特曼(Sam Altman)在2015年將Openai共同創立了非營利組織,其任務是推動人工智能以促進更大的利益。但是,馬斯克在2018年離開該組織標誌著兩者之間有爭議的關係的開始。此後,馬斯克(Musk)對Openai向營利性模式,其領導層以及與Microsoft等公司的合作提出了擔憂。 2024年3月,馬斯克通過針對Openai提起訴訟來升級這一爭執。他指控在自動駕駛模型中濫用特斯拉的專有數據。
這種競爭不僅與人工智能技術有關,還反映了個人緊張局勢。馬斯克稱阿爾特曼為“山姆斯·薩姆”。而阿爾特曼(Altman)在採訪中將馬斯克(Musk)標記為“惡霸”。批評家認為,這一爭執是由他們的競爭野心所推動的。特別是馬斯克建立了Xai,這是Openai的直接競爭對手。這種情況突出了AI治理,競爭和道德AI發展的廣泛含義。
這就是為什麼埃隆起訴Openai:
- Tonya de Vitti(@TonyAdeVitti)2024年3月6日
“似乎很奇怪的是,某事可以是一個非營利的開源,並且以營利性封閉的來源以某種方式改變了自己。”
- @elonmusk pic.twitter.com/zdghbq0h8e
另請閱讀:什麼是負責人AI?為什麼我們需要它?
2024年4月,當Grok AI報導NBA明星克萊·湯普森(Klay Thompson)曾參與磚瓦破壞狂潮時,一種監視工具,以幫助警察陷入困境。這一切之所以開始,是因為Grok在討論湯普森(Thompson)對陣薩克拉曼多國王隊(Sacramento Kings)的一場比賽中的糟糕表現時誤解了籃球lang語,在十項嘗試中命中率為零。 “射擊磚”一詞在籃球中是一個常見的慣用表達,可以描述一個不成功的射門。 AI誤解了這句話是實際故意破壞的一個實例,涉及在薩克拉曼多的家中扔磚。
毫無根據的報告指出,房屋已破壞,當局正在調查事件。這個虛假的故事在社交媒體上廣泛傳播,導致大量用戶處於困惑和歡笑狀態。許多人嘲笑了X上的情況。他們開始製作模因和搞笑帖子,傳播了不真實的故事。儘管上下文很容易被誤解,但格羅克的報告仍然活了好幾天。因此,AI系統如何看待人類語言的細微差別和背景來強調問題。
對Grok AI的強烈反對很快就出現了。行動主義和評論要求採用更強大的監管標準和AI系統更好的審計實踐。他們引用了偏見的培訓數據固有的一些危險。例如,來自少數社區的人的格羅克(Grok)被標記不成比例,使破壞性的刻板印象永久存在,並傳播了不真實的人。 Grok事件圍繞著AI失敗的含義開展了更廣泛的談判。
Twitter的新型AI驅動趨勢標籤認為克萊·湯普森(Klay Thompson)被指控與磚塊破壞房屋
- 文化渴望嗎? (@culturecrave)2024年4月17日
這是在對陣國王pic.twitter.com/kslnh4nqj8的0-10之後。
斯嘉麗·約翰遜(Scarlett Johansson)在得知Openai用她的聲音為AI生成的病毒視頻廣告中霍克(Hawk)的假產品提起訴訟,在該產品中,她的聲音在未經她的知識或允許的情況下被合成。視頻廣告在社交媒體之間遍布遙遠,並提出了有關所使用的深擊技術的關鍵法律和道德問題。
在法庭上,約翰遜的律師聲稱,未經授權使用她的肖像侵犯了她的隱私和宣傳權。該訴訟闡明了濫用Deepfake技術的潛力,並引起了一個更普遍的問題:如何被名人和公眾人物濫用,未經同意就可以輕鬆地重複其身份。它開始了有關AI生成的內容和協議的更清晰法規的辯論,以同意人們的肖像。
這一AI爭議導致OpenAI宣布計劃修改其數據集政策,以確保更嚴格的同意要求向前發展。該事件標誌著人工智能和深擊時代關於知識產權的持續辯論的關鍵時刻,強調了AI發展中道德標準的必要性。
我們已經聽到了有關如何在Chatgpt(尤其是Sky)中選擇聲音的問題。我們正在努力暫停天空的使用。
- 2024年5月20日Openai(@openai)
閱讀有關我們如何選擇這些聲音的更多信息:https://t.co/r8wwwzju36l
2024年5月,Google在推出名為AI概述的新的AI生成的功能方面遭受了嚴重的反對。新功能旨在總結一些句子的搜索結果,以使用戶更容易在更少的時間內找到答案。但是,在發布後的幾天內,一系列荒謬和荒謬的反應變得臭名昭著,這些反應使公眾對AI生成的內容的信任受到質疑。
根據用戶的說法,AI在許多主題上顯示了有關以下許多主題的誤導性信息:
當用戶對這種情況發表自己的懷疑和沮喪時,這些虛假性在社交媒體上引起了巨大的嘲笑。許多人通過質疑Google的AI系統及其提供信息能力的完整性來升級這種情況。
它看到了這種憤怒,通過承認Google發出的回應問題來接受對AI概述面臨的問題的批評。 “這些問題源於信息差距,當沒有優質的來源來支持諸如罕見的查詢之類的事情時,有時會帶來不足的問題,並且通常會帶來不足的質量來源,並且通常值得信賴的網站來產生“不良”信息。”
Google表示將對其係統的監督和質量檢查進行一系列評論和升級。這也將進一步限制更具體的搜索查詢的應用程序,同時繼續致力於進一步的無錯誤輸出的開發。
我知道我已經對AI有偏見,但是在嘗試了幾次Google的事情后,確實很糟糕。就像在某些時候,所有道德和經濟的擔憂都只是將“這不起作用”的公寓置於後座。 https://t.co/fgudh2nxci
- 克里斯·穆尼(Chris Mooney)?
另請閱讀:Google -2024 Roundup的前6個AI更新
麥當勞(McDonald's)於2024年6月取消了對IBM AI驅動的語音訂單系統的測試,此前重複出現了準確的問題和客戶滿意度。這個概念是在更簡單但面臨重大的操作問題上進行訂購過程。
測試提出了以下關鍵問題:
當麥當勞結束審判時,行業分析師提出了有關AI技術準備大量採用客戶服務角色的問題。許多分析師指出,儘管AI具有潛在的好處,但如果沒有充分解決,其當前的局限性可能會導致嚴重的操作中斷。
麥當勞僱用了IBM通過訂購系統開發基於AI的驅動器。
- 2024年6月17日Sheel Mohnot(@pitdesi)
它的失敗率很高,現在MCD正在退出
很明顯,我們應該使用AI,而IBM是錯誤的供應商。
我認為“沒有人因購買IBM而被解僱”不再適用。 pic.twitter.com/WH41HSTOYV
2024年6月,Donotpay是合法的AI平台,將自己稱為“世界上第一位機器人律師”。由於對其主張和產品的多次法律和公眾審查,它在其最大的AI爭議之一中發揮了最大的作用。該公司最初是由約書亞·布勞德(Joshua Browder)於2015年成立的,最初開始旨在幫助用戶打擊法律挑戰,例如免費爭奪停車票和免費生產法律文件。但是,據報導,人工智能提供了不好的法律建議。這些法律建議可能會導致依靠其服務的人造成嚴重的局勢。
聯邦貿易委員會介入後加深的爭議加深了。他們聲稱Donotpay從事未經授權的法律實踐,未能實現諾言。 FTC的投訴指出了幾個要點:
這一丑聞提出了有關在法律等高風險領域中使用AI的可行性和道德的關鍵問題。批評家認為,AI可用於執行某些任務,但不應作為替代專業法律建議的銷售。該事件在代表其能力和保護消費者方面就AI公司的責任引發了辯論。
Hot Take:我不確定我不太關心對Donotpay的未經授權的法律索賠實踐,就像我對該技術無法正常工作的指控所做的那樣。
- Tessa Molnar(@TessavMolnar)2023年3月10日
[長線警告。]
?
另請閱讀:法律部門的人工智能革命:聊天機器人在法庭上佔據中心地位
2024年6月,OpenAI的聯合創始人Ilya Sutskever宣布推出Safe Unsertelligence Inc.(SSI),該計劃旨在優先考慮人工智能發展的道德框架。這一舉動是在圍繞Openai的各種爭議之後對先進AI技術的安全性和道德意義的越來越擔憂。 SSI的任務是確保高級AI系統負責任地開發和部署。主要目標包括:
支持者稱讚薩斯克佛的舉動及時而急需,以解決AI周圍的道德問題。但另一方面,批評者將其視為對Openai的爭議的反應。他們質疑SSI是否真正地採取行動改變現狀,或者只是在採取公共關係策略來幫助挽救Openai強烈反對。
2/8 Ex-Openai聯合創始人啟動自己的AI公司
- 2024年6月21日AI Edge(@The_AI_EDGE)
離開Openai僅一個月後,前共同創始人Ilya Sutskever與Daniel Gross和Daniel Levy建立了Safe Superintelligence Inc.。 pic.twitter.com/nfx1rtqxup
2024年9月,臭名昭著的面部識別公司Clearview AI的憤怒浮出水面,他最近的啟示是刮擦毫無戒心的個人以擴大面部數據庫的數據的啟示,遭到了越來越多的火災。主要向執法機構提供軟件的公司已被要求獲得未經同意從互聯網和社交媒體網站獲取圖像的手段。這一爭議引起了人們關於侵犯隱私和這種技術在執法部門中應用的道德規範的辯論。
據報導,Clearview AI託管了從許多在線資源中刪除的300億張圖像。這樣的行為引起了倡導者和民權組織之間的嚴重警報。他們對Clearview對法律和道德標準造成的違規行為提出了擔憂。 Clearview未經人們同意匯總圖像。這進一步創造了批評家認為可以在不知道或允許的情況下對他們進行跟踪和確定的個人的“永久陣容”。
反對Clearview AI的反彈並不是什麼新鮮事。該公司在各個司法管轄區都面臨著多項訴訟和監管行動。例如:
醜聞引起了公民自由團體和激進主義者的廣泛譴責,他們正在努力尋求更強大的管理面部識別技術的監管措施。許多人說,Clearview的實踐體現了令人不安的趨勢,在這些趨勢中,隱私權被擱置為監視能力。法律鬥爭表明迫切需要進行全面的立法來保護人們的生物識別數據。
Clearview AI因非法收集面部數據而被荷蘭當局罰款3370萬美元,違反了歐盟隱私法。該公司否認不當行為。
- 諾埃爾?拉丁語中的AI? (@noellerussell_)2024年10月8日
發現我如何在AI解決方案中出售$ 1B!立即獲取免費副本!
最近,亞馬遜的AI招聘工具因在招聘中偏向性別和種族而受到批評。已經進行了幾次糾正疾病的嘗試。但是,這表明它對男性候選人有利於針對各個方面相同的女性的技術職位。這是對AI驅動決策過程中公平和問責制的嚴重質疑。
關於亞馬遜AI招聘工具的爭議始於發現該算法是對十年來提交的簡歷進行培訓的,主要是由男性候選人提交的。因此:
這使亞馬遜最終放棄了該工具,但只有在公平公平的招聘實踐中證明其無效之後。即使這些偏見繼續面臨調整,亞馬遜開發的AI招聘工具也從未見過它的最後日子,因為批評不平等在招聘方面得到了加強而不是減少。
亞馬遜創建了一個用於簡歷排序的AI,以使過程更有效。它教會使用過去的招聘實踐作為例子
- Askaubry? ? (@ask_aubry)2023年2月15日
人工智能運作完美。它精確地複制了給出的示例。因此,它開始對女性進行描述。
示例 @ 8:16https://t.co/eupwmjmkcb
當我們進入2025年時,2024年的AI爭議是AI社區的重要教訓。儘管新的一年將帶來自己的挑戰,但這些事件凸顯了需要更具道德,透明和負責的AI發展的需求。這些AI爭議提醒公司和創新者,賭注比以往任何時候都高。對於一個錯誤,可能會侵蝕公眾的信任並造成現實世界的傷害。然而,隨著爭議的機會。通過解決這些弱點,公司可以創建創新的技術,同時尊重人類的尊嚴,隱私和社會規範。儘管旅程將具有挑戰性,但它仍然具有更周到,道德和有影響力的AI驅動的未來的希望。
以上是2024年的前9個AI爭議-Analytics Vidhya的詳細內容。更多資訊請關注PHP中文網其他相關文章!