Google を包囲し、抑圧する傾向が実際にあります。 昨夜の Cloud Next カンファレンスで Google が一連のメジャー リリースを行ったとき、皆さん注目を集めました。OpenAI が GPT-4 を更新しましたTurbo、その後、Mistral は 8X22B の超大型モデルをオープンソース化しました。 Google の心: 南村の子供たちのグループが、私を年老いて体が弱いといじめました。 #2 番目に大きいオープン ソース モデル: Mixtral 8X22B#今年 1 月に、Mistral AI は Mixtral 8x7B の技術詳細を発表し、Mixtral 8x7B – 指示チャット モデルを開始しました。このモデルのパフォーマンスは、人間による評価ベンチマークにおいて、GPT-3.5 Turbo、Claude-2.1、Gemini Pro、および Llama 2 70B チャット モデルを大幅に上回っています。 わずか 3 か月後、Mistral AI は Mistral 8X22B モデルをオープンソース化し、強力なパフォーマンスを備えた別の大型モデルをオープンソース コミュニティにもたらしました。 Mistral 8X22B モデルの詳細を調べた人がいますが、モデルのファイル サイズは約 262 GB です。 その結果、Mistral 8X22B は、xAI によって以前に発売された Grok-1 (パラメータ ボリューム 314) に次いで、現時点で 2 番目に大きいオープン ソース モデルになりました。十億)。 MoE サークルにもう 1 人「偉い人」がいると叫ぶ人もいます。 MoE は専門家モデルの混合であり、以前は Grok-1 も MoE モデルでした。 GPT-4 Turbo の新しいビジュアル機能のアップグレード一方、OpenAI GPT -4 Turbo with Vision が API 経由で利用できるようになり、Vision 機能が JSON スキーマと関数呼び出しを使用して利用できるようになったと発表しました。 #OpenAI 公式 Web サイトの詳細は次のとおりです。 #それにもかかわらず、あらゆる分野のネチズンは、OpenAI の軽微な修復について「冷淡ではありません」。 参考リンク: https://platform.openai.com/docs/models/continuous-model-upgrades