GPT-4o 是作為 ChatGPT 的大幅改進模型而推出的。自推出以來,人們就對 ChatGPT-4o 的類人交互讚不絕口。雖然這聽起來不錯,但 OpenAI 注意到了一個問題:人們開始將聊天機器人視為人並形成情感紐帶。
OpenAI 觀察到人們使用「可能表明正在形成聯繫」的語言。該公司指出,它發現人們使用表達「共同紐帶」的語言的例子。這被描述為壞消息有兩個主要原因。
首先,當 ChatGPT-4o 看起來像人類時,使用者可以忽略聊天機器人發出的任何幻覺。就上下文而言,人工智慧幻覺基本上是模型產生的不正確或誤導性的輸出。這種情況的發生可能是由於訓練資料有缺陷或不足。
其次,與聊天機器人的類人互動可能會減少使用者之間的真實社交互動。 OpenAI 表示,聊天機器人互動可能對「孤獨的人」有益,但也可能影響健康的人際關係。該公司進一步指出,人們甚至可以開始與人類交談,並認為對方是聊天機器人。
這會很糟糕,因為 OpenAI 設計了 GPT-4o,當使用者開始說話時就停止說話。考慮到所有這些擔憂,該公司表示現在將監控用戶如何與 ChatGPT-4o 建立情感聯繫。 OpenAI也表示,將在必要時對模型進行調整。
從亞馬遜取得 PLAUD Note AI 驅動的錄音機
以上是OpenAI 對用戶對其聊天機器人產生感情表示擔憂的詳細內容。更多資訊請關注PHP中文網其他相關文章!