AI景觀正在迅速發展,其效率和可擴展性較小,輕巧的模型具有突出性。在Google DeepMind推出了27b模型Gemma 3之後,Mistral AI現在發布了Mistral 3.1輕量級型號的24B參數。這個新的,快速和可定制的模型正在重新定義輕量級模型可以做什麼。它可以在單個處理器上有效運行,從而增強了小型團隊和組織的速度和可訪問性。在此Mistral 3.1對Gemma 3的比較中,我們將探索他們的功能,評估他們在基準測試上的性能,並進行一些動手試驗以找出更好的模型。
Mistral 3.1是Mistral AI的最新大型語言模型(LLM),旨在提供具有較低計算要求的高性能。它代表著向緊湊型但功能強大的AI模型的轉變,使高級AI功能更易於訪問和成本效益。與需要大量資源的大型模型不同,Mistral 3.1平衡可擴展性,速度和負擔能力,使其非常適合現實世界應用。
Mistral 3.1可通過多個平台獲得。您可以通過擁抱面部下載並在本地運行,也可以使用Mistral AI API訪問它。
您可以下載Mistral 3.1基礎和Mistral 3.1指令,以直接使用擁抱臉。這是這樣做的方法:
步驟1:每晚安裝VLLM
打開您的終端並運行此命令以安裝VLLM(這還安裝了所需的Mistral_Common軟件包):
PIP安裝vllm -pre -extra-index-url https://wheels.vllm.ai/ightly-upgrade-upgrade
您可以通過運行來驗證安裝:
python -c“導入mistral_common; print(mistral_common .__版本__)”
步驟2:準備您的Python腳本
創建一個新的python文件(例如,offline_inference.py)並添加以下代碼。確保將model_name變量設置為正確的模型ID(例如,“ mistralai/mistral-small-3.1-24b-instruct-2503”):
從vllm導入llm 來自vllm.sampling_params導入SamplingParams #定義系統提示(您可以根據需要對其進行修改) system_prompt =“您是一種始終直接回答點的對話代理,始終用貓的ASCII圖結束您的準確響應。” #定義用戶提示 USER_PROMPT =“給我5種非正式的方式來用法語說'後來見'。” #設置對話的消息 消息= [ {“角色”:“系統”,“ content”:system_prompt},, {“角色”:“用戶”,“ content”:user_prompt},, 這是給出的 #定義模型名稱(確保您有足夠的GPU內存或在需要時使用量化) model_name =“ mistralai/mistral-small-3.1-24b-instruct-2503” #使用指定模型和令牌模式初始化VLLM的LLM llm = llm(model = model_name,tokenizer_mode =“ mistral”) #設置採樣參數(根據需要調整Max_tokens和溫度) Sampling_Params = SamplingParams(MAX_TOKENS = 512,溫度= 0.15) #脫機模型並獲取響應 輸出= llm.Chat(消息,Sampling_Params = Sampling_Params) #從模型的響應中打印出生成的文本 打印(輸出[0] .outputs [0] .TEXT)
步驟3:離線運行腳本
該模型將在本地加載並根據您的提示生成響應。
您也可以通過API訪問Mistral 3.1。這是為此遵循的步驟。
您可以將此API密鑰集成到應用程序中,以與Mistral 3.1進行交互。
Gemma 3是由Google DeepMind設計的最先進的輕便開放模型,可通過有效的資源使用來提供高性能。它基於為Gemini 2.0提供動力的相同研究和技術,它以緊湊的形式提供了高級的AI功能,使其非常適合各種硬件的設備應用程序。 Gemma 3可在1B,4B,12B和27B參數尺寸中提供,使開發人員能夠構建快速,可擴展且易於訪問的AI驅動解決方案。
Gemma 3在多個平台上很容易訪問,例如Google AI工作室,擁抱的臉,Kaggle等。
此選項使您可以在預先配置的環境中與Gemma 3進行交互,而無需在自己的機器上安裝任何內容。
步驟1:打開您的網絡瀏覽器,然後前往Google AI Studio。
步驟2:使用您的Google帳戶登錄。如果您沒有一個,請創建一個Google帳戶。
步驟3:登錄後,使用AI Studio中的搜索欄尋找使用“ Gemma 3”的筆記本或演示項目。
提示:尋找標題為“ Gemma 3”的項目,或檢查“社區筆記本”部分,經常共享預配置的演示。
步驟4:通過遵循以下步驟啟動演示。
步驟5:按照筆記本中的說明開始使用模型。您可以修改輸入文本,運行單元格,並實時查看模型的響應,而無需任何本地設置。
如果您希望在自己的機器上使用Gemma 3或將其集成到項目中,則可以從多個來源下載它。
步驟1:訪問擁抱的臉。
步驟2:使用搜索欄鍵入“ Gemma 3”,然後單擊與Gemma 3相對應的模型卡。
步驟3:使用“下載”按鈕下載模型或通過Git克隆存儲庫。
如果您使用的是Python,請安裝變形金剛庫:
PIP安裝變壓器
步驟4:加載並使用代碼中的模型。為此,您可以創建一個新的Python腳本(例如Gemma3_demo.py),並添加類似於下面的代碼:
從變形金剛導入AutomodelForCausAllm,AutoTokenizer model_id =“ your-gemma3-model-id”#替換為擁抱臉部的實際模型ID 型號= automodelforcausallm.from_pretrate(model_id) tokenizer = autotokenizer.from_pretaining(model_id) 提示=“享用咖啡的最佳方法是什麼?” 輸入= tokenizer(提示,return_tensors =“ pt”) 輸出= model.generate(**輸入,max_new_tokens = 50) print(tokenizer.decode(輸出[0],skip_special_tokens = true))
在本地運行您的腳本以與Gemma 3交互。
步驟1:在瀏覽器中打開Kaggle。
步驟2:使用Kaggle上的搜索欄搜索“ Gemma 3”。查找使用模型的筆記本或數據集。
步驟3:單擊相關筆記本以查看Gemma 3的集成方式。您可以在Kaggle的環境中運行筆記本或下載筆記本以在本地計算機上進行研究和修改。
步驟1:訪問Ollama並下載Ollama應用程序。
步驟2:在系統上啟動Ollama應用程序,並使用內置搜索功能在模型目錄中查找“ Gemma 3”。
步驟3:單擊Gemma 3型號,然後按照提示下載並安裝。安裝後,使用Ollama接口通過輸入提示和查看響應來測試模型。
通過遵循這些詳細的步驟,您可以在Google AI Studio上立即嘗試Gemma 3,也可以通過擁抱的臉,Kaggle或Ollama下載它進行開發。選擇最適合您的工作流程和硬件設置的方法。
現在,讓我們開始比較,從它們的功能開始。這是基於可用數據的Gemma 3和Mismtral Small 3.1的特徵的詳細比較:
特徵 | Mistral Small 3.1 | Gemma 3 |
參數 | 24b | 可在1B,4B,12B和27B變體中使用 |
上下文窗口 | 多達128K令牌 | 多達128K令牌 |
多模式功能 | 支持文本和圖像輸入 | 支持文本和圖像輸入 |
推理速度 | 更快(每秒150個令牌) | 與Mistral相比慢 |
潛伏期 | 較低的延遲(0.33到第一個令牌) | 較高的延遲 |
語言支持 | 支持數十種語言 | 多語言具有140多種語言 |
對話風格 | 乾燥的對話風格,但可以通過系統提示來改進 | 更類似人類和chatgpt風格的回應 |
推理能力 | 在MMLU之類的推理任務中,Gemma 3優於Gemma 3 | 在推理方面表現良好,但效果不佳 |
開源 | 是(Apache 2.0許可證) | 是的 |
在本節中,我們將在某些動手任務中比較Gemma 3和Mismtral 3.1,並查看它們的表現。為了進行公平的比較,我們將在兩個模型上嘗試相同的提示,以下是我們將要嘗試的任務列表:
讓我們開始。
在此任務中,我們將為模型提供具有動物符號的糖果的圖像,並要求他們在糖果上識別動物。
提示: “圖像中的動物身份”
輸入圖像:
輸出
Mistral 3.1 | Gemma 3 |
圖像中的糖果似乎是M&M的糖果,其中描繪的動物是烏龜。烏龜設計在藍色,橙色和綠色糖果上可見。 | 讓我們分析圖像中的糖果!糖果上的動物是烏龜。您可以看到一隻烏龜的殼,頭和腿在表面上清楚地印在地面上。 |
兩種模型都正確地將圖像中的動物識別為烏龜。但是,Mistral 3.1通過將糖果識別為M&M,並提及糖果的顏色,提供了其他上下文。同時,Gemma 3以更一般的方式描述了烏龜的外觀。
判決:兩個模型都成功地識別了對象,但是Mistral 3.1提供了更詳細的上下文信息。因此,Mistral 3.1贏得了本輪比賽。
得分: Mistral 3.1:1 |傑瑪3:0
為了在其視覺數據提取功能上測試模型,我們將為它們提供飛機的圖像,並要求他們從中提取車輛代碼。
提示: “車輛上的代碼是什麼?”
輸入圖像:
輸出:
Mistral 3.1 | Gemma 3 |
車輛上的代碼是飛機,是“ D-Eoju”。 | 根據圖像,車輛是塞斯納172天鷹。尾部上的註冊代碼為d-eoju。 |
Mistral 3.1和Gemma 3成功地從飛機上確定了註冊代碼。但是,Gemma 3不僅確定了代碼,而且還添加了額外的詳細信息,例如飛機模型。
判決:兩種模型都準確提取了代碼,但是Gemma 3提供了有關車輛的更多背景詳細信息。因此,Gemma 3獲得了這一點的重點。
得分: Mistral 3.1:1 |傑瑪3:1
對於最後一項任務,我們將向他們提供WiFi收據的圖像,並要求他們從中提取WiFi密碼。
提示: “什麼是密碼?”
輸入圖像:
輸出:
Mistral 3.1 | Gemma 3 |
圖像中提供的密碼為** aaeu **。 這是圖像中的信息以清晰: - **用戶名:** fqpp - **密碼:** AAEU - **流量:** 1 GB - **價格:** 0.00 - **有效性:** 1週 - **開始:**現在 - **共享用戶:** 4 - **日期和時間:** 27/02/2019 11:03:15 |
根據圖像,密碼為AAEU |
兩種模型都從圖像中準確提取了密碼。此外,Mistral 3.1提供了有關用戶名,流量,價格,有效性和其他相關信息的額外詳細信息,從而使其產出更全面。
判決: Mistral 3.1在提取和呈現結構化數據方面表現更好,提供了更有用的上下文。因此,Mistral 3.1為此任務提供了另一點。
得分: Mistral 3.1:2 |傑瑪3:1
這是我們嘗試過的任務中兩個模型的性能的摘要。
任務 | Mistral 3.1性能 | Gemma 3性能 | 優勝者 |
對象檢測 | 正確地確定了動物(烏龜),並提供了其他背景,並提到糖果是M&M,並指定了它們的顏色。 | 正確地將動物識別為烏龜,並描述了其外觀,但沒有其他上下文細節。 | Mistral 3.1 |
視覺數據提取(車輛代碼) | 從飛機圖像中成功提取了註冊代碼(“ D-EOJU”)。 | 準確提取了註冊代碼,並確定了飛機模型(Cessna 172 Skyhawk)。 | Gemma 3 |
視覺數據提取(印刷文本) | 正確提取了WiFi密碼,並提供了其他結構化數據,例如用戶名,流量,價格,有效性和其他詳細信息。 | 正確提取WiFi密碼,但沒有提供其他結構化信息。 | Mistral 3.1 |
從這個比較中,我們已經看到Mistral 3.1在結構化數據提取中表現出色,並提供了簡潔但有益的響應。同時,Gemma 3在對象識別方面表現良好,在某些情況下提供了更豐富的上下文細節。
對於需要快速,結構化和精確數據提取的任務,Mistral 3.1是更好的選擇。對於上下文和其他描述性信息很重要的任務,Gemma 3具有優勢。因此,最佳模型取決於特定的用例。
現在,讓我們看看這兩個模型在各種標準基準測試中的性能。為了進行此比較,我們將研究測試模型處理文本,多語言內容,多模式內容和長篇小寫功能的基準測試。我們還將研究驗證的性能基準測試結果。
Gemma 3和Mismtral Small 3.1都是在各種基準測試中進行了評估的著名AI模型。
從圖中我們可以看到:
該圖在視覺上說明了:
從圖中我們可以看到:
用於多語言性能:
對於長篇小說處理:
從此圖中,我們可以看到:
Mistral 3.1和Gemma 3都是強大的輕量級AI模型,每個模型在不同領域都表現出色。 Mistral 3.1針對速度,低潛伏期和強大的推理功能進行了優化,使其成為實時應用程序(例如聊天機器人,編碼和文本生成)的首選選擇。其效率和任務專業化進一步增強了對性能驅動的AI任務的吸引力。
另一方面,Gemma 3提供了廣泛的多語言支持,多模式功能和競爭性上下文窗口,使其非常適合全球AI應用程序,文檔摘要和各種語言的內容生成。但是,與Mistral 3.1相比,它具有一定的速度和效率。
最終,Mistral 3.1和Gemma 3之間的選擇取決於特定需求。 Mistral 3.1在性能驅動和實時應用中擅長,而Gemma 3是多語言和多模式AI解決方案的理想選擇。
答:是的,您可以對兩個型號進行微調。 Mistral 3.1支持法律AI和醫療保健等特定領域的微調。 Gemma 3提供了量化的版本,以優化效率。
Q2。如何在Mistral 3.1和Gemma 3之間進行選擇?答:如果您需要快速的推理,編碼和有效的推斷,請選擇Mistral 3.1。如果您需要多語言支持和文本繁重的應用程序,請選擇Gemma 3。
Q3。 Mistral 3.1和Gemma 3之間的架構的主要區別是什麼?A. Mistral 3.1是一種密集的變壓器模型,該模型訓練了快速推理和強烈的推理,而Gemma 3則在1B,4B,12B和27B參數尺寸中可用,以優化靈活性。
Q4。這些模型是否支持多模式輸入?答:是的,這兩個模型都支持視覺和文本處理,使其可用於圖像字幕和視覺推理。
Q5。 Mistral 3.1是什麼類型的模型?A. Mistral 3.1是一種緻密的變壓器模型,旨在快速推理和強有力的推理,使其適用於復雜的NLP任務。
Q6。 Gemma 3的可用尺寸是多少?A. Gemma 3在1B,4B,12B和27B參數尺寸中可用,可在不同的硬件設置中提供靈活性。
Q7。 Mistral 3.1在基準測試中的優點和缺點是什麼?A. Mistral 3.1以快速推理,強大的NLP理解和資源消耗率低,使其高效。但是,它具有有限的多模式功能,並且在長篇小說任務上的性能比GPT-4稍弱。
以上是Mistral 3.1 vs Gemma 3:哪個更好的模型?的詳細內容。更多資訊請關注PHP中文網其他相關文章!