软件开发公司Cloudera最近宣布了一项战略合作,计划与NVIDIA合作加速生成式AI应用的部署。这项合作将涉及将NVIDIA的AI微服务整合到Cloudera数据平台(CDP)中,旨在帮助企业更快地构建和扩展基于其数据的自定义大型语言模型(LLMs)。这一举措将为企业提供更强大的工具和技术,以便更好地利用其数据资源,并加速AI应用的开发和部署过程。这一合作将为企业带来更多机会,帮助它们实现更高效的数据驱动决策,并推动业务发展。Cloudera和NVIDIA的合作将为企业提供更多选择和灵活性,有望推动AI技术在各行业的广泛应用。
在这次合作中,Cloudera计划充分利用NVIDIA AI Enterprise技术,其中包括NVIDIA Inference Manager(NIM)微服务,以揭示CDP中超过25E字节的数据所蕴藏的见解。这些宝贵的企业信息将被导入Cloudera的机器学习平台中,这个平台是公司提供的端到端AI工作流服务,旨在推动新一轮生成式AI创新。
Cloudera的AI/ML产品副总裁Priyank Patel指出,企业数据结合为大型语言模型优化的全栈平台对于将组织的生成式AI应用从试点推向生产至关重要。Cloudera目前正在整合NVIDIA NIM和CUDA-X微服务,以推动其机器学习平台,助力客户将AI的潜力转化为商业现实。
这次合作突显了Cloudera和NVIDIA在技术创新方面的实力,也显示了市场对生成式AI应用的迅速增长需求。通过整合双方的资源和技术优势,共同推动AI在企业中的实际应用,为企业提供更高效、更智能的解决方案。
此外,通过利用CDP中的海量数据,结合Cloudera机器学习平台的强大功能,企业能够更深入地挖掘数据的价值,实现更精准的决策和更高效的业务运营。这一合作将为企业带来更加智能化、自动化的未来,推动整个行业的发展和进步。
在连接模型与数据之间,企业AI面临着一个关键挑战,即如何将基础模型与相关的业务数据连接起来,以生成准确、符合上下文的输出。NVIDIA的NIM和NeMo Retriever微服务旨在通过使开发者能够将LLMs(大型语言模型)与从文本文档到图像和可视化等结构化和非结构化企业数据连接起来,从而弥合这一差距。
具体来说,Cloudera Machine Learning将提供集成的NIM模型服务功能,以增强推理性能,并在混合和多云环境中实现容错、低延迟和自动扩展。而NeMo Retriever的加入将简化检索增强生成(RAG)应用程序的开发,这种应用程序通过实时检索相关数据来提高生成式AI的准确性。
其中,NVIDIA NeMo Retriever是NVIDIA NeMo框架和工具系列的一项全新服务。NeMo是一个用于构建、自定义和部署生成式AI模型的框架和工具系列。作为一项语义检索微服务,NeMo Retriever借助经NVIDIA优化的算法,帮助生成式AI应用作出更加准确的回答。使用该微服务的开发者可以将其AI应用与位于各个云和数据中心的业务数据相连通。这种连接不仅增强了AI应用的准确性,还使得开发者能够更灵活地处理和利用企业数据。
概括来说,NVIDIA的NIM和NeMo Retriever等微服务为企业提供了一种有效的方式,将AI模型与业务数据紧密地结合在一起,从而生成更加准确和有用的输出。这为企业提供了强大的工具,可以进一步推动AI在各个领域的应用和发展。
NVIDIA与Cloudera的合作正在为企业打开一扇全新的大门,引领他们更高效地利用海量数据来构建定制化的协同助手和生产力工具。NVIDIA企业产品副总裁Justin Boitano表示:“NVIDIA NIM微服务与Cloudera数据平台的集成,为开发者提供了一种更加灵活和简便的方式来部署大型语言模型,从而推动企业的业务转型。”
通过简化从数据到生成式AI部署的路径,Cloudera和NVIDIA旨在加速企业对诸如编码助手、聊天机器人、文档摘要工具和语义搜索工具等变革性应用的采纳。这一合作建立在两家公司之前通过将NVIDIA RAPIDS集成到CDP中利用GPU加速的基础上。
Patel强调了扩大合作带来的业务好处,他指出:“除了为客户提供强大的生成式AI能力和性能外,此次集成的结果还将使企业能够做出更准确、更及时的决策,同时减少预测中的不准确性、幻觉和错误——这些都是在当今数据环境中导航的关键因素。”
Cloudera将在3月18日至21日于加利福尼亚州圣何塞举行的NVIDIA GTC上展示其新的生成式AI能力。随着领先企业探索基础模型改变其运营的潜力,Cloudera和NVIDIA坚信他们的合作将使客户站在企业AI新兴时代的前沿。
以上是端到端加速企业GenAI创新,英伟达NIM微服务成为软件企业看中的亮点!的详细内容。更多信息请关注PHP中文网其他相关文章!