在Google昨晚Cloud Next 大會進行一系列重大發佈時,你們都來搶熱度:前有OpenAI 更新GPT-4 Turbo,後面有Mistral 開源8X22B 的超大模型。
今年1 月,Mistral AI公佈了Mixtral 8x7B 的技術細節,並推出了Mixtral 8x7B – Instruct 聊天模型。模型的效能在人類評估基準上明顯超過了 GPT-3.5 Turbo、Claude-2.1、Gemini Pro 和 Llama 2 70B 聊天模型。 短短 3 個月後,Mistral AI 開源了 Mistral 8X22B 模型,為開源社群帶來了另一個效能強勁的大模型。 有人已經查看了 Mistral 8X22B 模型的細節,模型檔案大小約為 262 GB。 由此,Mistral 8X22B 僅次於 xAI 先前推出的 Grok-1(參數量為 3140 億),成為迄今為止第二大開源模型。 還有人驚呼,MoE 圈又來了個「大傢伙」。 MoE 即專家混合模型,先前 Grok-1 也為 MoE 模型。 另一邊,OpenAI 宣布GPT -4 Turbo with Vision 現在可以透過API 使用了,而且Vision 功能也可以使用JSON 模式和函數呼叫了。 雖然如此,各路網友對 OpenAI 的小修小補「並不感冒」。 https://platform.openai.com/docs/models/continuous-model-upgrades以上是Mistral開源8X22B大模型,OpenAI更新GPT-4 Turbo視覺,都在欺負Google的詳細內容。更多資訊請關注PHP中文網其他相關文章!