这些模型目前有三种不同的大小,已经在600多种编程语言(包括低资源语言)上进行了培训,以帮助企业在其开发工作流中加速各种与代码相关的任务,它们是在开放的BigCode项目下开发的,该项目是ServiceNow和Huging Face联合发起的,以确保负责任地开发和使用大型代码语言模型,在开放负责任的AI许可证下,它们是免费提供的。
StarCoder2的推出证实了开放的科学合作和负责任的AI实践与道德数据供应链的结合可以带来巨大的力量。ServiceNow的StarCoder2开发团队负责人和BigCode的联合负责人Harm de Vries在一份声明中指出,新的开放访问模式不仅改进了之前的GenAI性能,也提升了开发人员的生产效率,让他们更容易获得代码生成AI的好处,从而使得任何规模的企业都能更轻松地实现其全部业务潜力。
BigCode的最新产品不仅仅是StarCoder LLM的升级,它引入了三种不同规模的模型:3B、7B和15B,并且扩展了支持的编程语言达到了619种。新一代产品中,被称为Stack的模型训练数据量比之前增加了将近七倍。这意味着BigCode在不断进化,为开发者提供更加强大和全面的工具和资源,以帮助他们在各种编程任务中取得成功。这种创新精神和不断改进的态度使得BigCode成为开发者们信赖和依赖的首选平台,为他们提供了更广泛的学习和应用机会。BigCode的发展展示了对技术和编程领域的持续投入和关注,为整个行业带来了新的可能性和机遇。
BigCode社区采用了最新一代的培训技术,以确保模型能够理解和生成低资源编程语言,例如COBOL、数学和程序源代码。这种方法对于帮助用户更好地掌握多样化的编程语言和代码讨论至关重要。
30亿参数模型采用了ServiceNow的Fast LLM框架进行训练,而7B模型则是基于Hugging Face的Nantron框架开发的。这两种模型都旨在为文本到代码和文本到工作流生成提供高性能,同时又需要较少的计算资源。
同时,使用端到端的英伟达 Nemo云本地框架和英伟达 TensorRT-LLM软件对最大的150亿参数模型进行了训练和优化。
尽管这些机型在不同编码场景下的表现仍有待观察,但两家公司注意到最小的3B模型的性能与最初的15B StarCoder LLM相当。
根据他们的需求,企业团队可以使用这些模型中的任何一个,并根据不同用例的企业数据对其进行进一步的微调,这可以是任何特殊任务,从应用程序源代码生成、工作流生成和文本摘要到代码完成、高级代码摘要和代码片段检索。
两家公司强调,这些模型经过更广泛和深入的培训,能够提供更具上下文感知性和准确性的预测。这种高度训练的模型能够更好地理解存储库的背景信息。最终,这些努力为加速开发工作铺平了道路,使工程师和开发人员能够将更多精力集中在更为关键的任务上。
英伟达应用研究副总裁Jonathan Cohen在新闻声明中表示:“由于每个软件生态系统都有专有的编程语言,代码LLM可以推动每个行业在效率和创新方面的突破。”
“英伟达与ServiceNow和Huging Face的合作引入了安全、负责任的开发模式,并支持更广泛地接触负责任的GenAI,我们希望这将使全球社会受益”,他补充道。
如前所述,StarCoder2系列中的所有模型都是在Open Rail-M许可证下提供的,可以免版税访问和使用。支持代码可以在BigCode项目的GitHub库中找到。作为另一种选择,团队也可以下载并使用拥抱脸的所有三个模型。
也就是说,由英伟达培训的15B模型也将出现在英伟达 AI Foundation上,使开发人员能够直接从他们的浏览器或通过API端点进行试验。
虽然StarCoder不是AI驱动的代码生成领域的第一个进入者,但该项目的最新一代带来的广泛选择肯定允许企业在应用程序开发中利用LLMS,同时还可以节省计算。
该领域的其他知名参与者包括OpenAI和亚马逊,前者提供Codex,为GitHub联合试点服务提供支持,而后者提供CodeWhisper工具,还有来自Replit和Codenium的激烈竞争,Replit在Hugging Face上有几个小型AI编码模型,Codenium最近以5亿美元的估值获得了6500万美元的B轮融资。
以上是英伟达、Hugging Face和ServiceNow发布用于代码生成的新StarCoder2 LLM的详细内容。更多信息请关注PHP中文网其他相关文章!