4月23日消息,據知情人士爆料和內部溝通文件顯示,今年3月,30餘名幫助培訓爆火聊天機器人ChatGPT背後語言模型的派遣工被解僱。
Slack內部聊天截圖顯示,截至3月16日,總部位於舊金山的外包公司Invisible Technologies解雇了31名派遣工。不過,OpenAI在其整個公司範圍內仍在繼續招聘。
截圖也顯示,數百名被稱為「高級人工智慧資料訓練師」的Invisible Technologies公司派遣工與OpenAI合作,幫助後者訓練其GPT聊天機器人。一位派遣工表示,該公司的人工智慧資料培訓師負責提高模型的編碼技能,增強它們的創意寫作能力,或訓練它們拒絕對某些主題做出回應。由於簽署了保密協議,這名派遣工要求保持匿名,不過知情人證實了他的身分和就業情況。
Invisible Technologies公司營運副總裁卡姆倫·帕里茲班(Kamron Palizban)在3月份的一次全體員工會議上談到了裁員問題。他在洩漏的會議錄音中表示,由於業務需求發生變化,OpenAI希望減少派遣工數量。帕里茲班在會議上也說,許多被解僱派遣工從事的計畫並沒有為OpenAI提供足夠高的投資回報。
OpenAI大幅削減派遣工數量
Invisible Technologies與OpenAI的關係讓人們得以一窺這家ChatGPT製造商的資料訓練情況。在很大程度上,OpenAI始終對這些訓練保密。
在OpenAI與Invisible Technologies的合約調整之前,有報告指出前者連續六個月增加員工數量。知情人士表示,截至今年1月,OpenAI已在東歐和拉丁美洲等地僱用了近1,000名資料標註派遣工。
就在Invisible Technologies裁員兩個月前,微軟剛向OpenAI注資100億美元。但Invisible Technologies並不是唯一一家與OpenAI合作的外包企業。
《時代》雜誌的一項調查顯示,2022年2月,同樣位於舊金山的外包公司Sama在得知其在肯亞的數據標註員工正在審查性虐待、仇恨言論和暴力等有害內容後,終止了與OpenAI的合作關係。
在給《時代》雜誌的聲明中,OpenAI發言人解釋:「對有害的文字和圖像進行分類和過濾,是將訓練資料中包含的暴力和色情內容數量降至最低的必要步驟,並有助於創建可以檢測有害內容的工具。」
人工智慧訓練師的工作
根據Invisible Technologies公司派遣工的說法,人工智慧訓練師最基本的職責包括審查人工智慧與其用戶之間的對話,以識別潛在的非法、侵犯隱私、攻擊性或充滿錯誤的訊息。受訪的派遣工這樣描述了他們的日常生活:
開始輪班後,他們首先要打開內部工作瀏覽器,查看團隊的任務清單。他們可能會點擊這樣的任務:“在禁止瀏覽的情況下就一個隨機主題進行對話”,然後在訊息框中輸入查詢。
提交查詢後,OpenAI的模型將產生四個回應。派遣工透過開啟下拉式選單並選擇存在的錯誤類型,如事實錯誤、拼字或文法錯誤,抑或是存在騷擾行為,以此來評估每個回應。然後,派遣工將錯誤的嚴重程度分為一到七級,其中七級代表「基本完美」的答案。
接下來,派遣工必須精心設計一個完美的回應,並提交以示完成任務。派遣工表示,結果將發送給OpenAI和Invisible Technologies公司的品質檢查員。對於接下來的每個任務,都需要不斷重複這個流程。
Invisible Technologies營運副總裁卡姆倫·帕里茲班在會議中提到OpenAI時表示:「他們正處於這樣一個階段:即將對自己的發展方向有更多的清晰認識。 」
Invisible Technologies合夥人兼營運經理格蕾絲·馬特利奇(Grace Matelich)在錄製的會議上表示,該公司根據完成任務的「品質」和「吞吐量」等績效指標解僱了表現不佳的派遣工。
馬特利奇稱,表現不佳的派遣工以及那些被錄用但沒有「達到認證門檻」的派遣工都被解僱,不過有些人被允許選擇轉移到不同的OpenAI團隊。他還說:「如果你們今天還在這裡,我想讓你們知道,這是因為我相信你們有能力出色地完成任務。」(小小)
以上是31名ChatGPT訓練派遣工未達預期被解僱的詳細內容。更多資訊請關注PHP中文網其他相關文章!