清华大学发布首个课程学习开源库CurML
在机器学习的发展过程中,人类的学习方式常常会对各种算法的设计产生启发。而作为人类学习的一个重要范式,通过课程进行学习,已经被借鉴到机器学习中形成了名为课程学习(Curriculum Learning)的研究方向。
普遍而言,人类的教育是通过高度组织化的课程来完成的。每一门课或是每一个学科,都会从简单的内容开始,逐步向学生呈现更复杂的概念。例如,在大学接受微积分的概念之前,一名学生应当先在小学学习算术,在初中学习函数,在高中学习导数。然而与人类教育不同的是,传统机器学习模型的训练都是将数据样本随机输入模型,忽略了数据样本之间不同的复杂性以及模型当前的学习状态。因此,课程学习在机器学习领域的提出,正是为了模仿人类由易到难的学习方式,为模型提供更好的训练策略,从而提升模型的表现。
课程学习概念图
目前课程学习已经广泛应用在机器学习的各个任务中,包括清华大学发布首个课程学习开源库CurML分类、目标检测、语义分割、机器翻译、音频识别、音频增强、视频问答等等,同时也在有监督、无监督和半监督学习以及强化学习等场景下受到大量关注和研究。
随着课程学习的应用和场景日益丰富,特别需要对这一领域进行细致的梳理和归纳,从而推动研究者的深入探索、提升使用者的应用体验。
因此,清华大学朱文武教授所带领的媒体与网络大数据实验室在发表了多篇课程学习学术论文的积累和基础上,实验室成员王鑫在 IEEE TPAMI 发表了关于课程学习的综述论文,实验室进一步发布了全球首个课程学习开源库 CurML (Curriculum Machine Leanring)。
朱文武教授与王鑫助理研究员的课程学习研究工作包括应用于城市兴趣地点推荐的课程元学习方法、基于带噪多反馈信息的课程解耦商品推荐、基于课程学习的共享参数神经架构搜索、以及基于课程难度自适应的组合优化问题求解等等。研究成果发表于 SIGKDD、NeurIPS、ACM MM 等高水平国际机器学习会议上。
部分研究成果框架图
课程学习综述论文则全面回顾了课程学习的产生、定义、理论和应用等各个方面,设计了统一的课程学习框架,并根据框架内的核心组成将课程学习算法分为两个大类和多个小类,区分了课程学习与其他机器学习概念之间的不同和关联,指出了这一领域所面临的挑战和未来可能的研究方向。
课程学习方法分类
课程学习开源库 CurML 是课程学习算法的支持平台,已经集成十多种课程学习算法,同时支持带噪和非带噪两种应用场景,便于研究者和使用者复现、评估、比较以及选择课程学习算法。
CurML 的主体模块是 CL Trainer,它由两个子模块 Model Trainer 和 CL Algorithm 组成,两者间通过五个接口函数进行交互,从而实现课程学习指导的机器学习过程。
CurML 框架图
主体模块:CL Trainer
这一模块是整个开源库的主体部分。通过调用这一模块,使用者仅需几行代码即可实现课程学习算法。在给定数据集、模型和超参数后,模块将进行一定时间的训练,并输出训练后的模型参数和任务的测试结果。这一模块的设计主要是为了满足易用性的要求,因此进行了高度的封装,提供给想要使用课程学习算法但并不在意具体实现细节的使用者。
子模块 1:Model Trainer
这一模块用于完成一般的机器学习过程,例如训练一个清华大学发布首个课程学习开源库CurML分类器或是一个语言模型。同时,它预留了五个接口函数的位置,用于和第二个子模块 CL Algorithm 进行交互,也支持自定义的输入函数。
子模块 2:CL Algorithm
这一模块封装了 CurML 所支持的全部课程学习算法,如下表所示:
模块的实现是通过五个接口函数,分别用于从机器学习过程中获取数据和模型信息,以及指导模型的学习策略,如下图所示。
CurML 流程图
接口函数:data_prepare
这一函数用于从 Model Trainer 模块向 CL Algorithm 模块提供数据集信息。很多课程学习算法需要对数据集有一个整体的了解,才能更好地判断数据样本难度,因此这一接口函数是很有必要的。
接口函数:model_prepare
这一函数与 data_prepare 很类似,区别在于传递的不是数据集信息而是模型训练的相关信息,例如模型架构、参数优化器、学习率调整器等等,很多课程学习算法通过调节这些要素指导机器学习。
接口函数:data_curriculum
这一函数用于计算数据样本难度,并根据数据难度和当前模型状态为模型提供合适的数据,大部分的课程学习都具有类似的思想。
接口函数:model_curriculum
这一函数用于更新模型,调节模型从数据样本中获取的信息量,间接指导模型的学习,目前这类算法的数量还较少,但 CurML 也同样支持这类算法的实现。
接口函数:loss_curriculum
这一函数用于对损失函数值进行重加权,间接调整不同数据对于模型的影响,这类算法在课程学习中较为常见,因为损失值的加权在本质上是一种对数据的软采样。
通过对于十多种近年来课程学习方法的总结,采用上述的模块和接口参数可以统一化实现不同类型的课程学习算法,从而能在公平的场景和任务下对课程学习算法进行评估、比较和选择。
未来展望
CurML 的研发团队表示,在未来他们将不断更新这一开源库,为课程学习的发展和应用提供进一步的支持。
相关链接:
- CurML 开源代码库链接:https://github.com/THUMNLab/CurML
- CurML 开源软件论文链接: https://dl.acm.org/doi/pdf/10.1145/3503161.3548549
- 课程学习综述论文链接:https://ieeexplore.ieee.org/abstract/document/9392296/
- 课程元学习论文链接:https://dl.acm.org/doi/abs/10.1145/3447548.3467132
- 课程解耦学习论文链接:https://proceedings.neurips.cc/paper/2021/file/e242660df1b69b74dcc7fde711f924ff-Paper.pdf
- 课程神经架构搜索论文链接:https://dl.acm.org/doi/abs/10.1145/3503161.3548271
- 课程难度自适应论文链接:https://ojs.aaai.org/index.php/AAAI/article/download/20899/version/19196/20658
以上是清华大学发布首个课程学习开源库CurML的详细内容。更多信息请关注PHP中文网其他相关文章!

热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

AI Hentai Generator
免费生成ai无尽的。

热门文章

热工具

记事本++7.3.1
好用且免费的代码编辑器

SublimeText3汉化版
中文版,非常好用

禅工作室 13.0.1
功能强大的PHP集成开发环境

Dreamweaver CS6
视觉化网页开发工具

SublimeText3 Mac版
神级代码编辑软件(SublimeText3)

热门话题

在机器学习和数据科学领域,模型的可解释性一直是研究者和实践者关注的焦点。随着深度学习和集成方法等复杂模型的广泛应用,理解模型的决策过程变得尤为重要。可解释人工智能(ExplainableAI|XAI)通过提高模型的透明度,帮助建立对机器学习模型的信任和信心。提高模型的透明度可以通过多种复杂模型的广泛应用等方法来实现,以及用于解释模型的决策过程。这些方法包括特征重要性分析、模型预测区间估计、局部可解释性算法等。特征重要性分析可以通过评估模型对输入特征的影响程度来解释模型的决策过程。模型预测区间估计

本文将介绍如何通过学习曲线来有效识别机器学习模型中的过拟合和欠拟合。欠拟合和过拟合1、过拟合如果一个模型对数据进行了过度训练,以至于它从中学习了噪声,那么这个模型就被称为过拟合。过拟合模型非常完美地学习了每一个例子,所以它会错误地分类一个看不见的/新的例子。对于一个过拟合的模型,我们会得到一个完美/接近完美的训练集分数和一个糟糕的验证集/测试分数。略有修改:"过拟合的原因:用一个复杂的模型来解决一个简单的问题,从数据中提取噪声。因为小数据集作为训练集可能无法代表所有数据的正确表示。"2、欠拟合如

20世纪50年代,人工智能(AI)诞生。当时研究人员发现机器可以执行类似人类的任务,例如思考。后来,在20世纪60年代,美国国防部资助了人工智能,并建立了实验室进行进一步开发。研究人员发现人工智能在许多领域都有用武之地,例如太空探索和极端环境中的生存。太空探索是对宇宙的研究,宇宙涵盖了地球以外的整个宇宙空间。太空被归类为极端环境,因为它的条件与地球不同。要在太空中生存,必须考虑许多因素,并采取预防措施。科学家和研究人员认为,探索太空并了解一切事物的现状有助于理解宇宙的运作方式,并为潜在的环境危机

C++中机器学习算法面临的常见挑战包括内存管理、多线程、性能优化和可维护性。解决方案包括使用智能指针、现代线程库、SIMD指令和第三方库,并遵循代码风格指南和使用自动化工具。实践案例展示了如何利用Eigen库实现线性回归算法,有效地管理内存和使用高性能矩阵操作。

FP8和更低的浮点数量化精度,不再是H100的“专利”了!老黄想让大家用INT8/INT4,微软DeepSpeed团队在没有英伟达官方支持的条件下,硬生生在A100上跑起FP6。测试结果表明,新方法TC-FPx在A100上的FP6量化,速度接近甚至偶尔超过INT4,而且拥有比后者更高的精度。在此基础之上,还有端到端的大模型支持,目前已经开源并集成到了DeepSpeed等深度学习推理框架中。这一成果对大模型的加速效果也是立竿见影——在这种框架下用单卡跑Llama,吞吐量比双卡还要高2.65倍。一名

机器学习是人工智能的重要分支,它赋予计算机从数据中学习的能力,并能够在无需明确编程的情况下改进自身能力。机器学习在各个领域都有着广泛的应用,从图像识别和自然语言处理到推荐系统和欺诈检测,它正在改变我们的生活方式。机器学习领域存在着多种不同的方法和理论,其中最具影响力的五种方法被称为“机器学习五大派”。这五大派分别为符号派、联结派、进化派、贝叶斯派和类推学派。1.符号学派符号学(Symbolism),又称为符号主义,强调利用符号进行逻辑推理和表达知识。该学派认为学习是一种逆向演绎的过程,通过已有的

译者|李睿审校|重楼人工智能(AI)和机器学习(ML)模型如今变得越来越复杂,这些模型产生的输出是黑盒——无法向利益相关方解释。可解释性人工智能(XAI)致力于通过让利益相关方理解这些模型的工作方式来解决这一问题,确保他们理解这些模型实际上是如何做出决策的,并确保人工智能系统中的透明度、信任度和问责制来解决这个问题。本文探讨了各种可解释性人工智能(XAI)技术,以阐明它们的基本原理。可解释性人工智能至关重要的几个原因信任度和透明度:为了让人工智能系统被广泛接受和信任,用户需要了解决策是如何做出的

MetaFAIR联合哈佛优化大规模机器学习时产生的数据偏差,提供了新的研究框架。据所周知,大语言模型的训练常常需要数月的时间,使用数百乃至上千个GPU。以LLaMA270B模型为例,其训练总共需要1,720,320个GPU小时。由于这些工作负载的规模和复杂性,导致训练大模型存在着独特的系统性挑战。最近,许多机构在训练SOTA生成式AI模型时报告了训练过程中的不稳定情况,它们通常以损失尖峰的形式出现,比如谷歌的PaLM模型训练过程中出现了多达20次的损失尖峰。数值偏差是造成这种训练不准确性的根因,
