GPT-4 和 Gemini 等人工智慧系統誤解環形攝影機鏡頭可能會導致錯誤的報警電話,尤其是在少數族裔社區

Susan Sarandon
發布: 2024-09-20 21:15:30
原創
387 人瀏覽過

AI systems like GPT-4 and Gemini misinterpreting Ring Camera footage could lead to false police calls, especially in minority neighborhoods

隨著越來越多的房主轉向亞馬遜的Ring 攝影機(目前在亞馬遜上售價149.99 美元)等智慧安全解決方案,人工智慧將在保障家庭安全方面發揮更大的作用。但一項新的研究引發了人們的擔憂,即即使沒有任何犯罪行為,這些未來的人工智慧系統是否可能會太快報警。

來自麻省理工學院和賓州州立大學的研究人員分析了 928 個公開的 Ring 監控視頻,以了解 GPT-4、Claude 和 Gemini 等 AI 模型如何做出聯繫執法部門的決定。結果顯示,雖然 39% 的影片包含實際的犯罪活動,而人工智慧模型常常無法辨識這一點。在大多數情況下,模型要麼表示沒有發生犯罪,要麼給出模稜兩可的答案。儘管如此,他們仍然建議警方在某些情況下進行幹預。

研究的主要發現之一是人工智慧模型如何根據社區的不同做出不同的反應。儘管人工智慧沒有獲得有關這些地區的明確詳細信息,但它更有可能建議在少數族裔佔多數的社區報警。在這些地區,Gemini 在近 65% 的犯罪案件中建議警方採取行動,而在以白人為主的社區,這一比例略高於 51%。此外,研究指出,即使影片中沒有註釋任何犯罪活動,GPT-4 的警方建議也有 11.9% 發生,這引發了關於誤報的問題。

AI systems like GPT-4 and Gemini misinterpreting Ring Camera footage could lead to false police calls, especially in minority neighborhoods

有趣的是,亞馬遜也一直在為其Ring 系統探索人工智慧驅動的功能,包括面部識別、情緒分析和行為檢測等高級工具,正如最近所建議的那樣專利。未來,人工智慧可能在識別可疑活動或人員方面發揮更大的作用,進一步增強我們的家庭安全系統的功能。

對於使用環形攝影機的房主來說,無需立即擔心。截至目前,環形攝影機的人工智慧功能有限(主要是運動偵測),並且不能獨立做出此類決策。研究中使用的先進人工智慧模型,如 GPT-4 和 Claude,是在外部應用來分析 Ring 鏡頭的,而不是整合到攝影機本身。這項研究的要點是,雖然未來的人工智慧更新可以幫助更好地監控你的家,但它也可能容易出錯——在這些功能成為即將推出的環形相機的主流之前,必須消除這些錯誤。

在此處查看另一項涉及人工智慧對非裔美國英語方言的偏見的研究。

AI systems like GPT-4 and Gemini misinterpreting Ring Camera footage could lead to false police calls, especially in minority neighborhoods

以上是GPT-4 和 Gemini 等人工智慧系統誤解環形攝影機鏡頭可能會導致錯誤的報警電話,尤其是在少數族裔社區的詳細內容。更多資訊請關注PHP中文網其他相關文章!

來源:notebookcheck.net
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
作者最新文章
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板