机器学习用于安全是美丽的谎言?
译者 | 布加迪
审校 | 孙淑娟
机器学习(ML)并不是神奇的技术。通常来说,ML适合在拥有庞大数据集的情况下解决范围狭窄的问题,受关注的模式具有高度可重复性或可预测性。大多数安全问题不需要ML,也并不得益于ML。包括谷歌人员在内的许多专家建议,在解决复杂问题时,应该在用尽所有其他方法后再试用ML。
ML结合一系列广泛的统计技术:即使我们没有提前为正确答案编好程,ML也让我们可以训练计算机来估计解决问题的答案。如果精心设计的ML系统用来处理合适类型的问题,可以发掘原本无法获得的洞察力。
每家组织的IT环境有不一样的用途、架构、优先级和风险承受力。不可能创建在所有场景下广泛支持安全用例的算法、ML或其他产品。这就是为什么ML在安全领域的大多数成功应用结合了多种方法来解决一个非常具体的问题。典型例子包括垃圾邮件过滤器、DDoS或僵尸程序(bot)缓解以及恶意软件检测。
1.垃圾进垃圾出
ML的最大挑战是拥有相关的可用数据来解决实际问题。对于监督式ML而言,您需要一个正确标记的大型数据集。比如说,要构建一个识别猫照片的模型,需要拿许多标记为“猫”的猫照片和许多标记为“非猫”的非猫照片来训练模型。如果您没有足够的照片或者它们的标记不准确,模型的效果就不会很好。
在安全方面,一个著名的监督式ML用例是无特征恶意软件检测。许多端点保护平台 (EPP)供应商使用ML来标记大量恶意样本和良性样本来训练模型,知道“恶意软件是什么样子”。这些模型可以正确识别规避性变异恶意软件及其他诡计(文件被篡改后,可以规避特征检测方法,但仍然是恶意的)。ML并不匹配特征,而是使用另一个特征集预测恶意内容,常常可以逮住基于特征的方法所疏漏的恶意软件。
由于ML模型是概率性的,因此需要取舍。ML可以逮住特征方法所疏漏的恶意软件,但也可能疏漏特征方法逮住的恶意软件。这就是为什么现代EPP工具使用混合方法,结合ML和基于特征的技术,以实现最大保护范围。
2.误报问题
即使模型精心设计,ML在解释输出时也会带来一些另外的挑战,包括:
- 结果是概率。ML 模型输出的是可能性。如果您的模型旨在识别猫,会得到类似“这东西80%的可能性是猫”的结果。这种不确定性是ML系统的固有特征,可能会使结果难以解释。80%的可能性是猫够准确吗?
- 模型无法调整,至少最终用户无法调整。为了处理概率性结果,工具可能由供应商设置的阈值,将它们处理成二进制结果。比如说,猫识别模型可能会报告任何可能性>90%的“猫”都是猫。贵企业在这方面的容忍度可能高于或低于供应商设置的容忍度。
- 漏报(FN),即未能检测出真正的恶意内容,这是ML模型的一大弊端,尤其是调整欠佳的模型。我们不喜欢误报(FP),因为它们浪费时间。但PF 率和FN率之间存在固有的取舍。调整ML模型以优化这种取舍,优先考虑FP率-FN率的“最佳”平衡。然而,“正确”的平衡因组织而异,取决于它们各自的威胁和风险评估。使用基于ML的产品时,必须信任供应商为您选择适当的阈值。
- 没有足够的上下文进行警报分类。ML的一部分魔力在于,从数据集提取显著的预测性但任意性的“特征”。想象一下,识别一只猫恰好与天气高度相关。没有人会这样推理。但这就是ML的重点——找到我们原本无法找到的模式,并且大规模地这么做。即使预测的原因可以暴露给用户,它在警报分类或事件响应情况下常常毫无帮助。这是由于最终定义ML系统决策的“特征”对预测能力进行了优化。
3.任何其他名称的“统计”方法
听起来都很美吗?
除了ML的利弊外,还有一个地方要注意:并非所有的“ML”都是真正的ML。统计方法可以为您提供有关数据的一些结论。ML根据您拥有的数据对您没有的数据进行预测。营销人员热衷于蹭“ML”和“人工智能”的热度,号称这是某种现代、创新、先进的技术产品。然而,人们常常很少考虑这项技术是否使用ML,更不用说ML是否是正确的方法。
4.ML能检测出恶意内容吗?
当“恶意内容”定义明确且范围狭窄时,ML可以检测出。它还可以检测出与高度可预测的系统中的预期行为相偏差的情况。环境越稳定,ML越有可能正确识别异常。但并非每个异常都是恶意的,操作人员并不总是有足够的上下文来响应。
ML的强大功能在于增强而不是代替现有方法、系统和团队,以实现最佳覆盖范围和效率。
原文链接:https://www.darkreading.com/vulnerabilities-threats/the-beautiful-lies-of-machine-learning-in-security
以上是机器学习用于安全是美丽的谎言?的详细内容。更多信息请关注PHP中文网其他相关文章!

热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

AI Hentai Generator
免费生成ai无尽的。

热门文章

热工具

记事本++7.3.1
好用且免费的代码编辑器

SublimeText3汉化版
中文版,非常好用

禅工作室 13.0.1
功能强大的PHP集成开发环境

Dreamweaver CS6
视觉化网页开发工具

SublimeText3 Mac版
神级代码编辑软件(SublimeText3)

热门话题

在机器学习和数据科学领域,模型的可解释性一直是研究者和实践者关注的焦点。随着深度学习和集成方法等复杂模型的广泛应用,理解模型的决策过程变得尤为重要。可解释人工智能(ExplainableAI|XAI)通过提高模型的透明度,帮助建立对机器学习模型的信任和信心。提高模型的透明度可以通过多种复杂模型的广泛应用等方法来实现,以及用于解释模型的决策过程。这些方法包括特征重要性分析、模型预测区间估计、局部可解释性算法等。特征重要性分析可以通过评估模型对输入特征的影响程度来解释模型的决策过程。模型预测区间估计

C++中机器学习算法面临的常见挑战包括内存管理、多线程、性能优化和可维护性。解决方案包括使用智能指针、现代线程库、SIMD指令和第三方库,并遵循代码风格指南和使用自动化工具。实践案例展示了如何利用Eigen库实现线性回归算法,有效地管理内存和使用高性能矩阵操作。

机器学习是人工智能的重要分支,它赋予计算机从数据中学习的能力,并能够在无需明确编程的情况下改进自身能力。机器学习在各个领域都有着广泛的应用,从图像识别和自然语言处理到推荐系统和欺诈检测,它正在改变我们的生活方式。机器学习领域存在着多种不同的方法和理论,其中最具影响力的五种方法被称为“机器学习五大派”。这五大派分别为符号派、联结派、进化派、贝叶斯派和类推学派。1.符号学派符号学(Symbolism),又称为符号主义,强调利用符号进行逻辑推理和表达知识。该学派认为学习是一种逆向演绎的过程,通过已有的

译者|李睿审校|重楼人工智能(AI)和机器学习(ML)模型如今变得越来越复杂,这些模型产生的输出是黑盒——无法向利益相关方解释。可解释性人工智能(XAI)致力于通过让利益相关方理解这些模型的工作方式来解决这一问题,确保他们理解这些模型实际上是如何做出决策的,并确保人工智能系统中的透明度、信任度和问责制来解决这个问题。本文探讨了各种可解释性人工智能(XAI)技术,以阐明它们的基本原理。可解释性人工智能至关重要的几个原因信任度和透明度:为了让人工智能系统被广泛接受和信任,用户需要了解决策是如何做出的

在C++中,机器学习算法的实施方式包括:线性回归:用于预测连续变量,步骤包括加载数据、计算权重和偏差、更新参数和预测。逻辑回归:用于预测离散变量,流程与线性回归类似,但使用sigmoid函数进行预测。支持向量机:一种强大的分类和回归算法,涉及计算支持向量和预测标签。

通过平衡安全需求和业务需求,Java框架设计可实现安全:识别关键业务需求,优先考虑相关安全要求。制定弹性安全策略,分层应对威胁,定期调整。考虑架构灵活性,支持业务演变,抽象安全功能。优先考虑效率和可用性,优化安全措施,提高可见性。

在Golang中使用机器学习来开发智能算法和数据驱动解决方案:安装Gonum库用于机器学习算法和实用程序。使用Gonum的LinearRegression模型进行线性回归,一种监督学习算法。用训练数据训练模型,训练数据包含输入变量和目标变量。根据新特征预测房价,模型将从中提取线性关系。

Slim和Phalcon在PHP微框架的安全性对比中,Phalcon内置有CSRF和XSS防护、表单验证等安全特性,而Slim缺乏开箱即用的安全特性,需手动实施安全措施。对于安全至关重要的应用程序,Phalcon提供了更全面的保护,是更好的选择。
