生成式AI是最近相當引人注目的一種AI技術,它使用非監督和半監督式演算法從現有材料(如文字、音訊、視訊、圖像和程式碼)中產生新的內容。這個AI分支的用途正在呈現爆炸性的成長,企業組織正在使用生成式AI更好地服務客戶、更多地利用企業現有數據、提高營運效率,以及許多其他用途。
但就像其他新興技術一樣,生成式AI並非沒有重大風險和挑戰。根據Salesforce最近對高級IT領導者進行的一項調查顯示,有79%的受訪者認為,生成式AI技術可能存在安全風險,73%的受訪者擔心生成式AI可能有偏見,59%的受訪者認為生成式AI的輸出內容不準確。此外,還需要考慮法律問題,特別是外部使用的生成式AI產生的內容真實且準確、內容受版權保護或來自競爭對手。
例如,ChatGPT本身會告訴我們,「我的回覆是根據從大型文字資料集中學習的模式和關聯性產生的,我沒有能力驗證資料集中所有引用來源的準確性或可信度。」
僅法律風險就十分廣泛,根據非營利性Tech Policy Press組織稱,這些風險包括合約、網路安全、資料隱私、欺詐性貿易行為、歧視、虛假資訊、道德、知識產權和驗證相關的風險。
事實上,你所在的組織可能已經有很多員工正在測試使用生成式AI了,並且隨著這項活動從試驗轉向現實生活,在意外後果發生之前採取積極主動的措施是非常重要的。
Google公司首席決策科學家Cassie Kozyrkov表示:「如果AI生成的程式碼奏效的話,那麼它水平很高。但這並不總是有效的,所以在將它複製並貼上到其他重要地方之前,不要忘記測試ChatGPT的輸出內容。」
企業使用政策和相關培訓可以幫助員工了解這項技術存在的一些風險和陷阱,並提供規則和建議以幫助他們了解如何充分利用該技術,從不讓組織陷入風險的情況下實現商業價值最大化。
考慮到這一點,以下有六個最佳實踐可以用來制定企業使用生成式AI的政策。
確定你的政策範圍-企業制定使用政策的第一步是考慮其範圍。例如,這會涵蓋所有形式的AI還是僅針對生成式AI?僅針對生成式AI可能是一種很有用的方法,因為這解決了包括ChatGPT在內的大型語言模型,而不必影響其他眾多AI技術。如何為針對更廣泛的領域建立AI治理政策則是另一回事,網路上有數百種這樣的資源。
讓整個組織的所有相關利益相關者都參與其中——這可能包括人力資源、法律、銷售、行銷、業務開發、營運和IT。每個團隊可能會有不同的用途,內容如何被使用或誤用產生的後果也可能不盡相同。讓IT和創新團隊參與進來,說明該政策不僅僅是從風險管理角度製定的一種限制措施,而是一系列平衡的建議,旨在最大限度地提高生產效率和業務利益,同時管理業務風險。
考慮生成式AI的現有和未來使用方式——與所有利害關係人展開合作,逐條列出目前正在應用的所有內部和外部用例,以及針對未來設想的用例,其中每一項都有助於為政策制定提供信息,並確保覆蓋了相關領域。例如,如果你已經看到提案團隊(包括承包商)正在嘗試使用生成式AI起草內容,或者產品團隊正在產生創意行銷內容,那麼你就知道,可能會因為輸出了潛在侵犯他人智慧財產權而產生後續智慧財產權方面的風險。
處於不斷發展的狀態——在製定企業使用政策時,重要的是要全面思考並涵蓋進入系統的資訊、生成式AI系統的使用方式,以及從系統中輸出的資訊隨後是如何被使用的。專注於內部和外部用例以及兩者之間的一切。透過要求所有AI生成的內容都貼上標籤,從而確保透明度並避免與人類生成的內容相互混淆,即使是內部使用,這項措施也可能有助於防止意外地將該內容重新用於外部使用,或防止在未經核實的情況下根據你認為真實準確的資訊採取行動。
在整個組織內廣泛分享——由於政策通常很快就會被遺忘甚至無人閱讀,因此圍繞政策提供適當的培訓和教育是非常重要的,這可以包括製作培訓視訊和主持現場會議。例如,和IT、創新、法律、行銷和提案團隊或其他相關團隊的代表進行現場問答,可以幫助員工了解未來的機會和挑戰。一定要列舉大量的例子來幫助讓聽眾身臨其境,例如當重大法律案件突然出現時,可以被引用為例子。
對文件進行動態更新——和所有政策文件一樣,你需要讓文件保持動態更新,根據新的用途、外部市場條件和發展要求以合適的節奏對其進行更新。讓所有利害關係人「簽署」該政策或將其納入由CEO簽署的現有政策手冊中,表明這些政策已經獲得了高層的批准並且對組織很重要。你的政策應該只是你更廣泛治理方法的一個組成部分,無論是針對生成式AI,還是普遍的AI技術或技術治理。
這不是法律上建議,你的法律和人力資源部門應該在批准和傳播政策方面發揮主導作用。但希望這能夠提供你一些參考意見。就像十年前的企業社群媒體政策一樣,現在花時間在這方面上,未來幾年將有助於你減少意外的發生和不斷變化的風險。
以上是針對生成式AI制定企業使用政策的六個優秀實踐的詳細內容。更多資訊請關注PHP中文網其他相關文章!