浏览大语模型(LLMS)的世界:实用指南
与LLMS
接口>用户友好的浏览器接口(例如Chatgpt和Google的双子座)提供简单的交互。 这些通常提供有限的自定义,但为测试基本任务的模型提供了一种简便的方法。 Openai的“游乐场”允许进行一些参数探索,但是这些接口不适合嵌入应用程序中。
2。本机API访问
API提供无缝集成到脚本中,从而消除了基础架构管理。 但是,使用使用情况量表,您仍然依赖外部服务。 围绕API调用的结构良好的包装器功能可改善模块化并减少错误。 例如,OpenAI的API使用
方法与模型名称和格式的提示作为关键参数。
请记住,大多数API提供商都提供有限的免费信用。 将API调用在功能中确保应用程序独立于特定提供商。openai.ChatCompletion.create
3。本地模型托管
>本地托管该模型(在您的计算机或服务器上)提供了完整的控制,但显着提高了技术复杂性。 Meta AI的Llama模型由于其相对较小的尺寸而是当地托管的流行选择。
ollama平台def chatgpt_call(prompt, model="gpt-3.5-turbo"): response = openai.ChatCompletion.create( model=model, messages=[{"role": "user", "content": prompt}] ) return response.choices[0].message["content"]
>
4。第三方API
> Llama API的样品包装器功能:
def chatgpt_call(prompt, model="gpt-3.5-turbo"): response = openai.ChatCompletion.create( model=model, messages=[{"role": "user", "content": prompt}] ) return response.choices[0].message["content"]
拥抱面是另一个著名的第三方提供商,提供各种接口(Space Playground,模型托管,直接下载)。 Langchain是用拥抱脸构建LLM应用程序的有用工具。
llm分类和模型选择
(Tables summarizing OpenAI models (GPT-4, GPT-4 Turbo, GPT-4 Vision, GPT-3.5 Turbo, GPT-3.5 Turbo Instruct), LLaMa models (LLaMa 2, LLaMa 2 Chat, LLaMa 2 Guard, Code LLaMa, Code LLaMa - Instruct, Code LLaMa - Python), Google models (Gemini, Gemma), and Mistral AI models (Mistral,Mixtral)将在此处插入这些表的长度和复杂性。 选择正确的llm
确定要如何进行交互(Playground,API,本地托管,第三方API)。这大大缩小了选项。
定义LLM的目的(聊天机器人,摘要,代码生成等)。 针对特定任务进行了优化的预训练模型可以节省时间和资源。
>
定价:
>通过仔细考虑这些因素,您可以有效地浏览LLM景观并为您的项目选择最佳模型。
以上是LLM分类:如何为您的应用程序选择最佳LLM的详细内容。更多信息请关注PHP中文网其他相关文章!