> Mistral AI的最新小语言模型(SLM),Mistral Small 3,提供了令人印象深刻的性能和效率。 这个240亿个参数模型具有跨不同AI任务的快速响应时间和可靠的功能。 让我们探索其功能,应用程序,可访问性和基准比较。
>目录的介绍小型3,这是我们最有效,最通用的模型!预训练和指导版本,Apache 2.0,24B,81%MMLU,150 TOK/s。没有合成数据,使其非常适合推理任务。 快乐的建筑!
表
什么是mistral小3?
>
键特征
在各种基准测试中,Mistral Small 3脱颖而出,在保持较高速度的同时,在特定区域的表现通常优于较大的模型。 与GPT-4O-MINI,LLAMA 3.3 70B指令,QWEN2.5 32B指示和Gemma 2 27B的比较。 >另请参见:PHI 4 vs GPT 4O-MINI比较
1。大规模的多任务语言理解(MMLU):
2。通用问题回答(GPQA)主:它在回答各种问题,展示强大的推理能力方面优于竞争对手。
3。 Humaneval:
4。数学指示:
> Mistral Small 3的速度优势(比Llama 3.3 70B在类似硬件上的指示快三倍以上)强调了其效率。
>另请参见:qwen2.5-vl视觉模型概述> 在 Mistral Small 3在Apache 2.0许可下可通过Mistral AI的网站,拥抱Face,Ollama,Kaggle,AI和Fireworks AI提供。 下面的kaggle示例说明了其集成:> AI提供了与OpenAi兼容的API,Mistral AI通过LA PlateForme提供部署选项。 未来的可用性是在NVIDIA NIM,Amazon Sagemaker,Groq,Databricks和Snowflake上计划的。
>
(将随后进行动手测试,应用程序,现实世界用例和常见问题解答部分,反映原始文本的结构和内容,但进行了较小的措辞调整以改善流程和简洁性。图像将保持其原始位置。)
以上是Mistral Small 3 |如何访问,功能,性能等的详细内容。更多信息请关注PHP中文网其他相关文章!