譯者| 朱先忠
策劃| 徐傑承
與開發人員信任的其他軟體開發工具不同,AI工具在訓練、建構、託管和使用方式等方面都存在一些獨特的風險。
自2022年底ChatGPT發布以來,網路上就充斥著對其幾乎相同比例的支持和懷疑的論點。不管你是否喜歡它,AI正在逐步進入你的開發組織。即使你不打算開發人工智慧產品,也不打算利用AI工具為你編寫程式碼,它仍可能被整合到用於建置、測試和運行原始程式碼的工具和平台中。
AI工具存在一些較為特殊的風險,這些風險可能會使自動化任務所帶來的生產力效益受到影響。而這些風險主要源自於AI的訓練、建置、託管和使用方式,AI工具在這些方面與開發人員信任的其他工具有許多不同之處。了解風險是管理風險的第一步,為了幫助你了解AI工具的潛在風險,我們設計了一些以AI工具為導向的面試問題,這些問題能夠決定該工具是否能順利「入職」你的公司。
整體而言,所有的的AI工具都存在一定的共通性,無論人工智慧的類型或用途如何,在選擇使用它之前,都應提出如下問題:
- 這款AI工具的基礎設施在什麼位置?現代人工智慧無一不需要專用且昂貴的硬體支援。除非你打算收購一個新的資料中心;否則你的AI工具將只能進行遠端工作,並需要使用遠端存取和非現場資料存儲,而這將造成一定的安全隱患。
- 當程式碼離開處理邊界時,採取什麼樣的保護措施來防止IP遺失?從智慧電視到智慧汽車,一切人工智慧產品都在向其製造商貢獻數據。有些企業使用這些數據來優化他們的軟體,但有些企業會將這些數據賣給廣告商。因此,你有必要準確地了解AI工具將如何使用或處理其用於主要任務的原始碼或其他私有資料。
- 你的輸入能夠用於模型的訓練任務嗎?人工智慧模型的持續訓練是模型所有企業以及模型訓練人員非常關注的任務。例如,模型所有企業往往不希望廣告商過度介入其模型訓練環節,以達到免費的廣告推播的目的。
- 結果的準確度是多少? ChatGPT最致命的缺點是其結果的不準確性。它在生成謊言和真理方面表現都很突出;這被稱為AI幻覺。了解人工智慧可能產生錯誤的方式和場景,有助於在AI工具發生錯誤時進行管理。
除此之外,人工智慧所有企業和開發者會存在自己的一系列安全問題。這些新的擔憂包括對人工智慧訓練模型的威脅,這些威脅可能會破壞其結果,並洩露有關模型運行方式的專有信息,以及可能會破壞模型生成結果的品質。此外,人工智慧模型必須透過API、Web存取、行動應用程式和其他需要安全建置的應用程式與傳統世界互動。
除一般問題外,開發人員在使用AI工具時還必須提出其他方面的問題,例如使用AI安全掃描程序,以便管理軟體開發過程中引入的風險。
- AI工具是否適合套用於此類場景?了解人工智慧不擅長什麼是十分關鍵的。例如,如果一項任務可以細分為「根據學習規則做出決定」或「編寫符合學習規則的內容」;那麼,人工智慧通常很擅長此類任務。如果問題的變化超越此範圍,人工智慧可能會表現得很糟糕。
- 如果AI工具出現錯誤,該採取什麼保護措施?千萬不要在你的過程中引入一個單一的失敗點,尤其是一個可能產生幻覺的失敗點。建議的做法應是,依靠與深度防禦相關的傳統做法,或管理風險的方法——即係統中的一層產生了問題,下一層也會捕獲它。
- 審查工具結果需要如何監督?其實這是一個舊事重提的問題。傳統的問題日誌擷取方案通常分為兩部分:第一個是取得重要事件的資料;第二個是審核日誌。在人工智慧進一步成熟,其缺陷被理解或緩解之前,人類仍需要保持對於循環的控制。
如今,越來越多的開發人員「僱用」ChatGPT來編寫原始程式碼。初步報告顯示,ChatGPT能夠用多種程式語言編寫原始程式碼,並且能夠流利地使用所有常見的語言。由於目前這個測試版的訓練和模型還存在一定的局限性,所以它產生的程式碼並不總是完美的。它通常包含可以改變軟體運作方式的業務邏輯缺陷、可能會混合不同版本軟體的語法錯誤以及其他看似人性化的問題。
大致上來看,ChatGPT只是一個初級程式設計師。那麼,誰會成為它的上級呢?
換句話說,ChatGPT也就是一個初級開發人員層級。因此,當使用這個由初級開發人員編寫的程式碼時,必須考慮如何管理它:
- 誰會成為其上級,以保障其編寫程式碼的整體效果?初級開發人員通常都需要資深開發人員的協助。每一行程式碼都必須經過測試,有些程式碼必須修復。然而,有報告表明,這種校對過程比從頭開始編寫程式碼更加耗時、更加複雜。
- 它是將訓練程式碼注入還是重新混合到程式碼庫中?一個更隱密的威脅是,有時像GitHub Copilot這樣的人工智慧機器人會產生原始碼,完美地複製訓練資料中的程式碼區塊。因此,需要利用反剽竊工具來確保許可證風險得到管理。
- AI工具從哪裡取得訓練資料?一個人工智慧模型的能力水準與它的訓練資料密切相關。如果AI使用舊的或不正確的程式碼進行訓練,那麼它將產生舊的和不正確的結果。
- 引擎託管在哪裡?分析原始碼的AI機器人需要將原始碼整合到其對應的處理設備中。離開公司管控後,應特別考慮如何保護、使用及處置資料。
無論如何,2022年12月發布的ChatGPT預示著軟體開發的新時代。關注這類工具的變化而不是被它們擊敗是很重要的。在採用這些新工具時要明確,事情變化越多,就越該保持不變:預防安全事件總比發現意外要好。
原文連結:https://thenewstack.io/hiring-an-ai-tool-to-code-what-to-ask-at-the-interview/
以上是「僱用」ChatGPT編碼,應如何進行面試?的詳細內容。更多資訊請關注PHP中文網其他相關文章!