目錄
1. 模型優先,持續迭代
2 權衡精準性,採用互動進行消歧
3 程式碼用於語法和過程,模型用於語義和意圖
4 避免脆弱性,摒棄硬編碼
5 數據品質至上,LLM的應用與高品質數據息息相關
6 把不確定性視為異常
7 文本作為通用協議
#8 複雜問題,分解操作
#9.凡有控制,皆有模型
10. 識別邊界,不要認為大模型無所不能
首頁 科技週邊 人工智慧 大模型應用設計的十個思考

大模型應用設計的十個思考

Dec 04, 2023 pm 05:17 PM
模型 應用設計

技術不是萬能的,但沒有技術卻可能是萬萬不能的,對於大模型可能也是如此。基於大模型的應用設計需要聚焦在所解決的問題,在自然語言處理領域,大模型本身在某種程度上只是將各種NLP任務統一變成了sequence 到 sequence 的模式。利用大模型, 我們是在解決具體的生產和生活中的問題,產品和技術上的設計仍然不可或缺。

那麼,如果大模型正在重新建構軟體工程的未來,我們是否應該遵循一些基本原則呢?

1. 模型優先,持續迭代

如果模型能夠完成任務,就沒必要寫程式碼;模型會不斷進化,但程式碼卻不會

在當今時代,模型的價值越來越凸顯。與傳統的程式設計方法不同,現在的開發思路更傾向於"模型優先"。這意味著,當我們面臨一個問題或任務時,我們首先要考慮是否可以利用現有的模型來解決它,而不是立即著手編寫程式碼。因為程式碼是固定的,而模型具有巨大的發展空間。隨著時間的推移,模​​型具有強大的學習和適應能力,能夠透過不斷迭代自我優化和進步。因此,我們的首要任務是挖掘模型的潛力,讓它成為我們解決問題的利器

整個系統的目標是利用LLM的規劃和理解意圖的能力,以建立高效的專案。在這個過程中,我們可能會受到誘惑,想要回到那種命令式的思考模式,為程式的每個細節編寫程式碼。但是,我們必須抵抗這種誘惑,在某種程度上,現在可以讓模型可靠地做一些事情,隨著模型的發展,它會變得更好、更健壯

2 權衡精準性,採用互動進行消歧

利用權衡槓桿換取精準,使用互動來緩解模糊。使用LLM進行編碼時的正確心態不是“讓我們看看我們能讓跳舞的熊做什麼”,而是從系統中獲得盡可能多的槓桿作用。例如,可以建立非常通用的模式,如“從資料庫建立報告”或“教授一年的科目”,這些模式可以透過純文字提示進行參數化,從而輕鬆產生非常有價值和差異化的結果。

在維持高準確度的追求中,我們需要權衡其與其他因素之間的關係。為了達到這種平衡,我們可以採用互動的方式,以消除可能出現的歧義和誤解。這項策略不僅提高了準確性,還增加了操作的靈活性和效率

在使用LLM進行編碼的過程中,關鍵的心態應該是思考如何從系統中獲得最大的槓桿效應,而不是「試試看能做什麼」。這意味著,我們不應該僅僅滿足於簡單的功能實現,而是要深入挖掘系統的潛力,讓其為我們創造更大的價值

實際應用中,我們可以建立一些通用的模式。例如,「從資料庫產生報告」這樣的模式,它具有很強的適應性,可以透過簡單的文字提示進行參數調整,從而應對各種需求。再例如,「教導一年的深度學習課程」這樣的模式,它整合了豐富的教育資源,同樣可以透過互動方式輕鬆調整,滿足個人化的教學需求。

透過這些通用模式的應用,不僅提高了工作效率,還能輕鬆產生有價值、與眾不同的結果。這種權衡精準性與互動消歧的策略,無疑是基於大模型應用設計中的重要思考方式。

3 程式碼用於語法和過程,模型用於語義和意圖

在現代程式設計領域,程式碼和模型之間的分工變得越來越明確。簡單來說,程式碼主要負責實作語法和過程,而模型則專注於產生和解讀語意和意圖。在實際應用中,這種分工有多種表達方式,但核心思想是一致的:程式碼用於執行特定指令和流程,而模型用於推理、生成和理解語言的深層含義和目標

#從根本上說,模型在推理語言的意義和目標時表現出色,相形之下,當它們被要求執行特定的計算和過程時,往往表現得不如代碼。例如,一個高階模型可能很容易為求解數獨編寫程式碼,但如果讓它自己親自去解數獨,可能就會變得相對困難。

每個程式碼都有其獨特的優勢,關鍵在於選擇最適合特定問題的工具。語法和語意之間的界限,正是大型模型應用設計面臨的主要挑戰。在這種背景下,我們需要更深入地了解程式碼和模型各自的優缺點,以便更有效地利用它們來解決問題

4 避免脆弱性,摒棄硬編碼

在建構任何系統時,一個不可忽視的事實是,系統的整體強度往往由其最脆弱的部分決定。這個觀點不僅適用於傳統的軟體系統,對基於大模型的應用同樣適用

在追求系統的靈活性和高效性時,應該盡量避免硬編碼的方式。硬編碼指的是直接在程式碼中寫入特定的數值或邏輯,而不考慮未來可能的變化或擴展。雖然這種做法可能在短期內帶來方便,但從長遠來看,會導致程式碼僵化,難以維護。因此,我們應該在編寫程式碼和演算法時注重推理和靈活性的加入

當設計提示語和互動時,應該盡量讓其包含足夠的資訊和邏輯,以便系統能夠​​自主地進行決策和推理,而不是簡單地執行預先定義的命令。透過這種方式,不僅可以減少硬編碼的使用,還能更好地利用LLM的能力,讓系統更聰明、更有彈性。

5 數據品質至上,LLM的應用與高品質數據息息相關

大型模型確實展現出了非凡的能力,就像「受過良好教育的」個體一樣,但在實際應用中,它們仍然缺乏一些背景和主動性

簡單來說,如果你向這些模型提出一個簡單或開放式的問題,它們會給你一個簡單或通用的答案。這種答案可能缺乏深度或細節,無法滿足所有需求。如果希望得到更詳盡和深入的答案,那麼提問的方式和策略就需要更明智。

這其實是「Garbage in,Garbage out」原則在人工智慧時代的一種體現。無論技術有多先進,輸入的數據品質仍然至關重要。如果輸入的資料是模糊、不準確或不完整的,那麼模型輸出的答案也可能同樣如此。

為了確保LLM模型能夠給出高品質、有深度的答案,需要確保輸入的資料準確、詳盡且上下文豐富。這也意味著數據品質仍然是最重要的。只有重視並確保資料的質量,才能期望從這些先進的模型中獲得真正有價值、有深度的資訊

6 把不確定性視為異常

每當模型遇到不確定的情況,我們不能簡單地忽略它或給出一個模糊的答案。相反,我們應該依賴與使用者的互動意圖來澄清這種不確定性。

在程式設計中,當一組嵌套的提示中存在不確定性時-例如一個提示的結果可能有多種解讀,我們應採取一種類似於「異常拋出」的策略。這意味著,應該將這種不確定性傳遞到堆疊中的更高級別,直到到達一個可以與使用者互動或澄清不確定性的層級。

透過這樣的設計策略,程式可以在面對不確定性時做出適當的回應,從而提供更準確和可靠的結果

7 文本作為通用協議

文本已經成為一種普遍的協議,這主要歸功於LLM在解析自然語言、意圖和語義方面的出色能力。因此,文字成為了在提示語、模組和基於LLM的服務之間傳遞指令的首選格式

儘管自然語言在某些應用場景下可能略顯不精確,但相較於其他結構化語言(如XML),其優點在於簡潔、直覺且易於人類理解。當然,對於那些需要高度精確和結構化的任務,仍然可以少量地採用結構化語言進行輔助。但在多數場景下,自然語言在傳遞指令和意圖方面表現得相當出色。

值得一提的是,隨著這些基於LLM的技術的普及和進步,文本作為一種「未來證明」的自然互動方式,將進一步促進不同系統、不同提示之間的互通與理解。如果兩個完全不同的LLM服務都能夠理解和回應相同的文字指令,那麼它們之間的協作和互動將變得如同人類之間的溝通一樣自然、流暢

將內容進行改寫的目的是為了不改變原始意思,而將語言改寫為中文

#8 複雜問題,分解操作

當面對一個複雜問題時,不僅對人來說是一個挑戰,對大模型也是如此。在實際應用中,如果我們直接將複雜問題的提示語作為程式的一部分,可能會遇到問題,因為我們真正需要的只是推理的結果

為了解決這個問題,一種有效的方法是使用“元”提示。這種提示不僅可以給出問題,還能提供詳細的答案,然後要求模型從中提取關鍵資訊。這種方法的效果會很好,因為它實際上是將一個複雜的認知任務轉化為了一個相對簡單的任務。想像一下,如果給一個人一個「閱讀這篇文章並找出答案」的任務,即使該用戶沒有相關領域的專業知識,他也很有可能完成這個任務,因為自然語言的力量是巨大的。

在設計基於大模型的應用時,有一些需要注意的事項。一般人覺得困難的事情,在模型上也可能同樣困難。面對這種情況,最好的策略是將複雜的問題或任務分解成更簡單的步驟。這樣可以降低處理的難度,同時提高答案的穩定性與準確度

#9.凡有控制,皆有模型

#模型不僅是一種工具,它也可以成為我們對抗自身錯誤的利器。很多時候,我們容易將LLM(大語言模型)的運作想像成一個「頭腦」的內在過程。然而,必須認識到,儘管模型與人類思維在某些方面有相似之處,但二者之間仍存在許多有意義的差異。

這其中有一個特點特別重要:模型在短時間的互動中往往缺乏持久記憶。這意味著,模型在從一分鐘到下一分鐘的交互作用中,不太可能記住所有的細節。這項特點為我們提供了某種控制的可能性。

這種控制不僅限於程式碼審查。實際上,模型還可以充當程式碼的安全監視器,確保程式碼的安全運行;它還可以作為測試策略的一個組成部分,幫助我們制定更有效的測試方案;甚至可以充當內容過濾器,協助我們產生高品質的內容

因此,只要我們對模型進行適當的控制和引導,它就能成為我們工作中得力的「助手」。而這種控制的基礎,就是我們對模型內部機制和特性的深入了解與掌握。

10. 識別邊界,不要認為大模型無所不能

大語言模型的能力確實令人驚嘆,它們可以處理和解析大量的文本數據,產生有邏輯和連貫性的文本,甚至在某些任務上超越了人類的表現。然而,這並不意味著我們應該盲目崇拜這些大模型,認為它們無所不能。

大型模型實際上仍然存在許多限制和限制。儘管它們能夠處理大量的文字數據,但它們並不能像人類一樣真正理解語言和脈絡的微妙差異。此外,它們的表現也受訓練資料和演算法選擇的限制,可能會出現一些偏見和錯誤

因此,我們在使用大模型時,應該保持理性和謹慎的態度,既要欣賞它們所帶來的便利和進步,也要警惕它們的限制和潛在風險。這樣,才能更好地利用這些模型,推動基於大模型應用的健康發展。

#

以上是大模型應用設計的十個思考的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

<🎜>:泡泡膠模擬器無窮大 - 如何獲取和使用皇家鑰匙
3 週前 By 尊渡假赌尊渡假赌尊渡假赌
北端:融合系統,解釋
3 週前 By 尊渡假赌尊渡假赌尊渡假赌

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

熱門話題

Java教學
1664
14
CakePHP 教程
1423
52
Laravel 教程
1318
25
PHP教程
1269
29
C# 教程
1248
24
全球最強開源 MoE 模型來了,中文能力比肩 GPT-4,價格僅 GPT-4-Turbo 的近百分之一 全球最強開源 MoE 模型來了,中文能力比肩 GPT-4,價格僅 GPT-4-Turbo 的近百分之一 May 07, 2024 pm 04:13 PM

想像一下,一個人工智慧模型,不僅擁有超越傳統運算的能力,還能以更低的成本實現更有效率的效能。這不是科幻,DeepSeek-V2[1],全球最強開源MoE模型來了。 DeepSeek-V2是一個強大的專家混合(MoE)語言模型,具有訓練經濟、推理高效的特點。它由236B個參數組成,其中21B個參數用於啟動每個標記。與DeepSeek67B相比,DeepSeek-V2效能更強,同時節省了42.5%的訓練成本,減少了93.3%的KV緩存,最大生成吞吐量提高到5.76倍。 DeepSeek是一家探索通用人工智

AI顛覆數學研究!菲爾茲獎得主、華裔數學家領銜11篇頂刊論文|陶哲軒轉贊 AI顛覆數學研究!菲爾茲獎得主、華裔數學家領銜11篇頂刊論文|陶哲軒轉贊 Apr 09, 2024 am 11:52 AM

AI,的確正在改變數學。最近,一直十分關注這個議題的陶哲軒,轉發了最近一期的《美國數學學會通報》(BulletinoftheAmericanMathematicalSociety)。圍繞著「機器會改變數學嗎?」這個話題,許多數學家發表了自己的觀點,全程火花四射,內容硬核,精彩紛呈。作者陣容強大,包括菲爾茲獎得主AkshayVenkatesh、華裔數學家鄭樂雋、紐大電腦科學家ErnestDavis等多位業界知名學者。 AI的世界已經發生了天翻地覆的變化,要知道,其中許多文章是在一年前提交的,而在這一

Google狂喜:JAX性能超越Pytorch、TensorFlow!或成GPU推理訓練最快選擇 Google狂喜:JAX性能超越Pytorch、TensorFlow!或成GPU推理訓練最快選擇 Apr 01, 2024 pm 07:46 PM

谷歌力推的JAX在最近的基準測試中表現已經超過Pytorch和TensorFlow,7項指標排名第一。而且測試並不是JAX性能表現最好的TPU上完成的。雖然現在在開發者中,Pytorch依然比Tensorflow更受歡迎。但未來,也許有更多的大型模型會基於JAX平台進行訓練和運行。模型最近,Keras團隊為三個後端(TensorFlow、JAX、PyTorch)與原生PyTorch實作以及搭配TensorFlow的Keras2進行了基準測試。首先,他們為生成式和非生成式人工智慧任務選擇了一組主流

你好,電動Atlas!波士頓動力機器人復活,180度詭異動作嚇到馬斯克 你好,電動Atlas!波士頓動力機器人復活,180度詭異動作嚇到馬斯克 Apr 18, 2024 pm 07:58 PM

波士頓動力Atlas,正式進入電動機器人時代!昨天,液壓Atlas剛「含淚」退出歷史舞台,今天波士頓動力就宣布:電動Atlas上崗。看來,在商用人形機器人領域,波士頓動力是下定決心要跟特斯拉硬剛一把了。新影片放出後,短短十幾小時內,就已經有一百多萬觀看。舊人離去,新角色登場,這是歷史的必然。毫無疑問,今年是人形機器人的爆發年。網友銳評:機器人的進步,讓今年看起來像人類的開幕式動作、自由度遠超人類,但這真不是恐怖片?影片一開始,Atlas平靜地躺在地上,看起來應該是仰面朝天。接下來,讓人驚掉下巴

替代MLP的KAN,被開源專案擴展到卷積了 替代MLP的KAN,被開源專案擴展到卷積了 Jun 01, 2024 pm 10:03 PM

本月初,來自MIT等機構的研究者提出了一種非常有潛力的MLP替代方法—KAN。 KAN在準確性和可解釋性方面表現優於MLP。而且它能以非常少的參數量勝過以更大參數量運行的MLP。例如,作者表示,他們用KAN以更小的網路和更高的自動化程度重現了DeepMind的結果。具體來說,DeepMind的MLP有大約300,000個參數,而KAN只有約200個參數。 KAN與MLP一樣具有強大的數學基礎,MLP基於通用逼近定理,而KAN基於Kolmogorov-Arnold表示定理。如下圖所示,KAN在邊上具

時間序列預測 NLP大模型新作:為時序預測自動產生隱式Prompt 時間序列預測 NLP大模型新作:為時序預測自動產生隱式Prompt Mar 18, 2024 am 09:20 AM

今天我想分享一個最新的研究工作,這項研究來自康乃狄克大學,提出了一種將時間序列資料與自然語言處理(NLP)大模型在隱空間上對齊的方法,以提高時間序列預測的效果。此方法的關鍵在於利用隱空間提示(prompt)來增強時間序列預測的準確性。論文標題:S2IP-LLM:SemanticSpaceInformedPromptLearningwithLLMforTimeSeriesForecasting下載網址:https://arxiv.org/pdf/2403.05798v1.pdf1、問題背景大模型

特斯拉機器人進廠打工,馬斯克:手的自由度今年將達到22個! 特斯拉機器人進廠打工,馬斯克:手的自由度今年將達到22個! May 06, 2024 pm 04:13 PM

特斯拉機器人Optimus最新影片出爐,已經可以在工廠裡打工了。正常速度下,它分揀電池(特斯拉的4680電池)是這樣的:官方還放出了20倍速下的樣子——在小小的「工位」上,揀啊揀啊揀:這次放出的影片亮點之一在於Optimus在廠子裡完成這項工作,是完全自主的,全程沒有人為的干預。而且在Optimus的視角之下,它還可以把放歪了的電池重新撿起來放置,主打一個自動糾錯:對於Optimus的手,英偉達科學家JimFan給出了高度的評價:Optimus的手是全球五指機器人裡最靈巧的之一。它的手不僅有觸覺

DualBEV:大幅超越BEVFormer、BEVDet4D,開卷! DualBEV:大幅超越BEVFormer、BEVDet4D,開卷! Mar 21, 2024 pm 05:21 PM

這篇論文探討了在自動駕駛中,從不同視角(如透視圖和鳥瞰圖)準確檢測物體的問題,特別是如何有效地從透視圖(PV)到鳥瞰圖(BEV)空間轉換特徵,這一轉換是透過視覺轉換(VT)模組實施的。現有的方法大致分為兩種策略:2D到3D和3D到2D轉換。 2D到3D的方法透過預測深度機率來提升密集的2D特徵,但深度預測的固有不確定性,尤其是在遠處區域,可能會引入不準確性。而3D到2D的方法通常使用3D查詢來採樣2D特徵,並透過Transformer學習3D和2D特徵之間對應關係的注意力權重,這增加了計算和部署的

See all articles