OpenAI 和 Microsoft Sentinel 简介
欢迎来到我们关于 OpenAI 和 Microsoft Sentinel 的系列!大型语言模型或 LLM,例如 OpenAI 的 GPT3 系列,正在通过文本摘要、类人对话、代码解析和调试以及许多其他示例等创新用例接管公众的想象力。我们已经看到 ChatGPT 编写剧本和诗歌、创作音乐、撰写论文,甚至将计算机代码从一种语言翻译成另一种语言。
如果我们可以利用这种不可思议的潜力来帮助安全运营中心的事件响应人员,会怎样?好吧,我们当然可以——而且很简单!Microsoft Sentinel 已经包含一个用于 OpenAI GPT3 模型的内置连接器,我们可以在由 Azure Logic Apps 提供支持的自动化剧本中实施。这些强大的工作流易于编写并集成到 SOC 操作中。今天,我们将了解 OpenAI 连接器,并使用一个简单的用例探索其一些可配置参数:描述与 Sentinel 事件相关的 MITRE ATT&CK 策略。
在我们开始之前,让我们先了解一些先决条件:
- 如果您还没有 Microsoft Sentinel 实例,您可以使用免费的 Azure 帐户创建一个实例并按照Sentinel 入门快速入门进行操作。
- 我们将使用来自Microsoft Sentinel Training Lab的预先记录的数据来测试我们的剧本。
- 您还需要一个带有用于 GPT3 连接的 API 密钥的个人 OpenAI 帐户。
- 我还强烈建议查看 Antonio Formato 关于使用 ChatGPT 和 Sentinel 处理事件的优秀博客,其中 Antonio 介绍了一个非常有用的多用途手册,它已成为迄今为止在 Sentinel 中几乎所有 OpenAI 模型实现的参考。
我们将从一个基本的事件触发剧本开始(Sentinel > Automation > Create > Playbook with incident trigger)。
选择订阅和资源组,添加剧本名称,然后移至“连接”选项卡。您应该会看到带有一个或两个身份验证选项的 Microsoft Sentinel - 我在此示例中使用的是托管身份 - 但如果您还没有任何连接,您也可以在逻辑应用程序设计器中添加 Sentinel 连接.
查看并创建剧本,几秒钟后,资源将成功部署并将我们带到逻辑应用程序设计器画布:
让我们添加我们的 OpenAI 连接器。单击“新建步骤”并在搜索框中键入“OpenAI”。您会在顶部窗格中看到连接器,并在其下方看到两个操作:“创建图像”和“GPT3 完成您的提示”:
选择“GPT3 完成您的提示”。然后,系统会要求您在以下对话框中创建与 OpenAI API 的连接。如果您还没有,请在https://platform.openai.com/account/api-keys上创建一个密钥,并确保将其保存在安全位置!
确保在添加 OpenAI API 密钥时完全按照说明进行操作 - 它需要单词“Bearer”,后跟一个空格,然后是密钥本身:
成功!我们现在已经为我们的提示准备好 GPT3 文本完成操作。我们想要让 AI 模型解释与 Sentinel 事件相关的 MITRE ATT&CK 策略和技术,所以让我们使用动态内容编写一个简单的提示来插入来自 Sentinel 的事件策略。
我们快完成了!保存逻辑应用并转到 Microsoft Sentinel 事件以对其进行测试运行。我的实例中有来自 Microsoft Sentinel Training Lab 的测试数据,因此我将针对恶意收件箱规则警报触发的事件运行此剧本。
您可能想知道为什么我们没有在我们的剧本中配置第二个操作来添加带有结果的评论或任务。我们会到达那里 - 但首先我们要确保我们的提示从 AI 模型返回好的内容。返回 Playbook 并在新选项卡中打开 Overview。您应该在运行历史记录中看到一个项目,希望带有绿色复选标记:
单击该项目可查看有关逻辑应用运行的详细信息。我们可以展开任何操作块以查看详细的输入和输出参数:
我们的 GPT3 操作只用了两秒钟就成功完成了。让我们单击操作块将其展开并查看其输入和输出的完整详细信息:
让我们仔细看看“输出”部分中的“选择”字段。这是 GPT3 返回其完成的文本以及完成状态和任何错误代码的地方。我已将 Choices 输出的全文复制到 Visual Studio Code 中:
目前看起来还不错!GPT3 正确扩展了“防御规避”的 MITRE 定义。在我们向剧本添加逻辑操作以使用此答案文本创建事件评论之前,让我们再看一下 GPT3 操作本身的参数。OpenAI文本补全动作中一共有九个参数,不算引擎选择和提示:
这些是什么意思,我们如何调整它们以获得最佳结果?为了帮助我们了解每个参数对结果的影响,让我们转到OpenAI API Playground。我们可以在逻辑应用程序运行的输入字段中粘贴准确的提示,但在单击“提交”之前,我们要确保参数匹配。下面是一个快速表格,用于比较 Azure Logic App OpenAI 连接器和 OpenAI Playground 之间的参数名称:
Azure 逻辑应用程序连接器 | 开放人工智能游乐场 | 解释 |
引擎 | 模型 | 将生成完成的模型。我们可以在OpenAI connector中选择达芬奇(新)、达芬奇(旧)、居里、巴贝奇或阿达,分别对应'text-davinci-003'、'text-davinci-002'、'text-curie-001' 、'text-babbage-001' 和 'text-ada-001' 在 Playground 中。 |
n | 不适用 | 为每个提示生成多少完成。相当于在Playground中多次重新进入提示。 |
最好的 | (相同的) | 生成多个完成并返回最好的一个。谨慎使用——这会消耗大量代币! |
温度 | (相同的) | 定义响应的随机性(或创造性)。设置为 0 以获得高度确定性、重复的提示完成,其中模型将始终返回其最有信心的选择。设置为 1 以获得具有更多随机性的最大创意回复,或根据需要介于两者之间。 |
最大代币 | 最大长度 | ChatGPT 响应的最大长度,以令牌形式给出。一个令牌大约等于四个字符。ChatGPT 使用以代币计价;在撰写本文时,1000 个代币的价格为 0.002 美元。API 调用的成本将包括提示的令牌长度和回复一起,因此如果您想保持每次响应的最低成本,请从 1000 中减去提示的令牌长度来设置回复的上限。 |
频率惩罚 | (相同的) | 范围从 0 到 2 的数字。值越高,模型逐字重复行的可能性就越小(它将尝试查找同义词或重述行)。 |
存在惩罚 | (相同的) | 一个介于 0 到 2 之间的数字。值越高,模型重复响应中已经提到的主题的可能性就越小。 |
顶部 | (相同的) | 如果您不使用温度,另一种设置响应“创造力”的方法。该参数根据概率限制可能的答案标记;设置为 1 时,将考虑所有标记,但较小的值会减少前 X% 的可能答案集。 |
用户 | 不适用 | 唯一标识符。我们不需要设置此参数,因为我们的 API 密钥已经用作我们的标识符字符串。 |
停止 | 停止序列 | 最多四个序列将结束模型的响应。 |
让我们使用以下 OpenAI API Playground 设置来匹配我们的逻辑应用程序操作:
- 型号:text-davinci-003
- 温度:1
- 最大长度:100
这是我们从 GPT3 引擎得到的结果。
看起来响应在句子中间被截断了,所以我们应该增加最大长度参数。否则,此响应看起来还不错。我们正在使用最高可能的温度值——如果我们降低温度以获得更确定的响应,会发生什么?以温度为零为例:
在 temperature=0 时,无论我们重新生成此提示多少次,我们都会得到几乎完全相同的结果。当我们要求 GPT3 定义技术术语时,这很有效;作为 MITRE ATT&CK 战术的“防御规避”的含义应该没有太大差异。我们可以通过添加频率惩罚来提高响应的可读性,以降低模型重复使用相同词的倾向(“技术如”)。让我们将频率惩罚增加到最大值 2:
到目前为止,我们只使用了最新的达芬奇模型来快速完成任务。如果我们下降到 OpenAI 更快、更便宜的模型之一,例如 Curie、Babbage 或 Ada,会发生什么?让我们将模型更改为“text-ada-001”并比较结果:
嗯……不完全是。让我们试试巴贝奇:
Babbage 似乎也没有返回我们正在寻找的结果。也许居里会过得更好?
可悲的是,居里也不符合达芬奇设定的标准。它们当然很快,但我们为安全事件添加上下文的用例并不依赖于亚秒级响应时间 - 摘要的准确性更为重要。我们将继续使用达芬奇模型、低温和高频惩罚的成功组合。
回到我们的逻辑应用程序,让我们将我们从 Playground 发现的设置传输到 OpenAI 操作块:
我们的逻辑应用程序还需要能够为我们的事件写评论。单击“新建步骤”并从 Microsoft Sentinel 连接器中选择“向事件添加注释”:
我们只需要指定事件 ARM 标识符并撰写我们的评论消息。首先,在动态内容弹出菜单中搜索“事件 ARM ID”:
接下来,找到我们上一步输出的“文本”。您可能需要单击“查看更多”才能查看输出。逻辑应用程序设计器会自动将我们的评论操作包装在“For each”逻辑块中,以处理为同一提示生成多个完成的情况。
我们完成的逻辑应用应类似于以下内容:
让我们再测试一下!回到那个 Microsoft Sentinel 事件并运行剧本。我们应该在我们的逻辑应用程序运行历史记录中获得另一个成功完成,并在我们的事件活动日志中获得一个新评论。
如果到目前为止,您一直与我们保持联系,那么您现在可以将 OpenAI GPT3 与 Microsoft Sentinel 集成在一起,这可以为您的安全调查增加价值。请继续关注我们的下一部分,我们将讨论更多将 OpenAI 模型与 Sentinel 集成的方法,解锁可以帮助您充分利用安全平台的工作流程!
以上是OpenAI 和 Microsoft Sentinel 简介的详细内容。更多信息请关注PHP中文网其他相关文章!

热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

AI Hentai Generator
免费生成ai无尽的。

热门文章

热工具

记事本++7.3.1
好用且免费的代码编辑器

SublimeText3汉化版
中文版,非常好用

禅工作室 13.0.1
功能强大的PHP集成开发环境

Dreamweaver CS6
视觉化网页开发工具

SublimeText3 Mac版
神级代码编辑软件(SublimeText3)

热门话题

2023年,AI技术已经成为热点话题,对各行业产生了巨大影响,编程领域尤其如此。人们越来越认识到AI技术的重要性,Spring社区也不例外。随着GenAI(GeneralArtificialIntelligence)技术的不断进步,简化具备AI功能的应用程序的创建变得至关重要和迫切。在这个背景下,"SpringAI"应运而生,旨在简化开发AI功能应用程序的过程,使其变得简单直观,避免不必要的复杂性。通过"SpringAI",开发者可以更轻松地构建具备AI功能的应用程序,将其变得更加易于使用和操作

OpenAI最近宣布推出他们的最新一代嵌入模型embeddingv3,他们声称这是性能最出色的嵌入模型,具备更高的多语言性能。这一批模型被划分为两种类型:规模较小的text-embeddings-3-small和更为强大、体积较大的text-embeddings-3-large。这些模型的设计和训练方式的信息披露得很少,模型只能通过付费API访问。所以就出现了很多开源的嵌入模型但是这些开源的模型与OpenAI闭源模型相比如何呢?本文将对这些新模型与开源模型的性能进行实证比较。我们计划建立一个数据

如果AI模型给的答案一点也看不懂,你敢用吗?随着机器学习系统在更重要的领域得到应用,证明为什么我们可以信任它们的输出,并明确何时不应信任它们,变得越来越重要。获得对复杂系统输出结果信任的一个可行方法是,要求系统对其输出产生一种解释,这种解释对人类或另一个受信任的系统来说是可读的,即可以完全理解以至于任何可能的错误都可以被发现。例如,为了建立对司法系统的信任,我们要求法院提供清晰易读的书面意见,解释并支持其决策。对于大型语言模型来说,我们也可以采用类似的方法。不过,在采用这种方法时,确保语言模型生

作者丨TimAnderson编译丨诺亚出品|51CTO技术栈(微信号:blog51cto)Zed编辑器项目目前仍处于预发布阶段,已在AGPL、GPL和Apache许可下开源。该编辑器以高性能和多种AI辅助选择为特色,但目前仅适用于Mac平台使用。内森·索博(NathanSobo)在一篇帖子中解释道,Zed项目在GitHub上的代码库中,编辑器部分采用了GPL许可,服务器端组件则使用了AGPL许可证,而GPUI(GPU加速用户界面)部分则采用了Apache2.0许可。GPUI是Zed团队开发的一款

不久前OpenAISora以其惊人的视频生成效果迅速走红,在一众文生视频模型中突出重围,成为全球瞩目的焦点。继2周前推出成本直降46%的Sora训练推理复现流程后,Colossal-AI团队全面开源全球首个类Sora架构视频生成模型「Open-Sora1.0」,涵盖了整个训练流程,包括数据处理、所有训练细节和模型权重,携手全球AI热爱者共同推进视频创作的新纪元。先睹为快,我们先看一段由Colossal-AI团队发布的「Open-Sora1.0」模型生成的都市繁华掠影视频。Open-Sora1.0

微软、OpenAI开年被曝预将大笔资金砸向一家人形机器人初创公司。其中,微软计划掏出9500万美元,OpenAI跟投500万美元。彭博社消息称,这家公司本轮预计共要融资5亿美元,投前估值或将达到19亿美元。是什么吸引了他们?不妨先来看一下这家公司的机器人成果。只见这个机器人通体银黑,外观酷似好莱坞科幻大片中的机器人形象:现在,他正在将一颗咖啡胶囊放进咖啡机里:如果没放正,还会自主调整,无需任何人为远程遥控:不过一会儿,一杯咖啡就可以端走享用:有木有家人们已经认出来了,没错,这款机器人就是前段时间

Ollama是一款超级实用的工具,让你能够在本地轻松运行Llama2、Mistral、Gemma等开源模型。本文我将介绍如何使用Ollama实现对文本的向量化处理。如果你本地还没有安装Ollama,可以阅读这篇文章。本文我们将使用nomic-embed-text[2]模型。它是一种文本编码器,在短的上下文和长的上下文任务上,性能超越了OpenAItext-embedding-ada-002和text-embedding-3-small。启动nomic-embed-text服务当你已经成功安装好o

突发!OpenAI开人了,理由:涉嫌信息泄露。一位是失踪的首席科学家Ilya盟友,超级对齐(Superalignment)团队核心成员LeopoldAschenbrenner。另一位也不简单,是LLM推理团队研究员PavelIzmailov,曾经也在超级对齐团队干过。目前尚不清楚这俩人到底泄露了啥信息。消息被曝出后,不少网友表示“挺震惊”:不久前我还看过Aschenbrenner的帖子,感觉他正处于事业上升期,没想到会有这样的转变。图片还有网友认为:OpenAI失去Aschenbrenner,I