提高准确性的一种方法是为AI提供正确的上下文
性并减少幻觉。
在所有关于人工智能如何彻底改变工作(使日常任务更高效、更可重复,并增加个人努力)的对话中,人们很容易得意忘形:人工智能不能做什么?
尽管它的名字叫生成式人工智能,但是能够创建图像、代码、文本、音乐等的人工智能,并非从无到有。人工智能模型是根据提供的信息进行训练的,特别是对于大型的语言模型(LLM),通常需要大量的文本作为训练数据。如果人工智能在准确、最新和组织良好的信息上接受训练,它将会倾向于给出准确、最新和相关的答案。麻省理工学院的研究表明,将知识库整合到LLM中往往能够提高输出质量并减少错误。这意味着人工智能和机器学习的进步并没有取代对知识管理的需求,相反,它使得知识管理变得更加重要
在陈旧、不完整的信息上训练的 LLM 容易产生“幻觉”,即不正确的结果,从稍微偏离基础到完全不连贯。幻觉包括对问题的错误回答以及有关人物和事件的虚假信息。
生成式人工智能也适用于“垃圾输入,垃圾输出”的经典计算规则。您的 AI 模型的训练数据对其至关重要。如果这些数据已经过时、结构不良或存在漏洞,人工智能将开始产生误导用户的答案,给您的组织带来麻烦甚至混乱
避免幻觉需要一套知识体系,即:
支持讨论和协作的知识管理 (KM) 方法可以提高知识库的质量,因为它允许您与同事合作审查 AI 的响应并改进提示结构以提高答案质量。这种交互是人工智能中强化学习的一种形式:人类将他们的判断应用于人工智能生成的输出的质量和准确性,并帮助人工智能(和人类)改进。
使用 LLM 时,查询的结构会影响结果的质量。这就是为什么提示工程(了解如何构建查询以从 AI 中获得最佳结果)正在成为一项关键技能,也是生成式 AI 可以帮助对话双方的领域:提示和响应。
根据 2023 年 6 月的 Gartner 报告《知识管理的解决方案路径》,提示工程,即为人工智能制定指令或问题的行为,本身正在迅速成为一项关键技能。以迭代、对话的方式与智能助手交互,将提高知识工作者指导人工智能完成知识管理任务的能力,并与人类同事分享所获得的知识
获取和分享知识对于知识管理实践的蓬勃发展至关重要。AI 驱动的知识捕获、内容丰富和 AI 助手可以帮助您向整个组织介绍学习和知识共享实践,并将其嵌入到日常工作流程中。
根据Gartner的知识管理解决方案路径,产品类似于Stack Overflow for Teams可以与Microsoft Teams或Slack进行集成,以提供具有持久知识存储的问答论坛。用户可以直接在社区发布问题。答案会被投票赞成或反对,最佳答案会被固定为最高答案。所有已回答的问题都是可搜索的,并且可以像任何其他知识源一样进行策划。这种方法还有一个额外的优势,即使知识共享成为工作流程的核心
根据Gartner的另一份报告《评估生成式AI如何改善开发人员体验》(2023年6月),建议组织通过建立生成式AI增强开发实践社区,收集和传播使用生成式AI工具的成熟实践,例如快速工程技巧和代码验证方法。报告进一步建议组织通过学习和应用组织批准的工具、用例和流程,以确保获得成功使用生成式人工智能所需的技能和知识
生成式 AI 工具非常适合新开发人员和希望学习新技能或扩展现有技能的经验丰富的开发人员。但有一个复杂性悬崖:在某个点之后,人工智能处理问题及其解决方案的细微差别、相互依赖性和完整上下文的能力就会下降
在最近的一期Stack Overflow播客中,Google Cloud Duet的产品经理Marcos Grappeggia表示,“LLM非常擅长增强开发人员的能力,让他们能够做得更多、行动更快。”他指出,这包括测试和尝试超出舒适区的语言和技术。但是Grappeggia也警告说,LLM并不是日常开发人员的一个很好的替代品......如果你不理解你的代码,那仍然是失败的关键
这个复杂的悬崖是你需要人类的地方,他们具有原创思维的能力和行使经验判断的能力。您的目标是制定知识管理战略,通过在人造知识上提炼和验证人工智能,利用人工智能的巨大力量。
以上是为什么知识管理是 AI 成功的基础?的详细内容。更多信息请关注PHP中文网其他相关文章!