微软仅凭「提示工程」让GPT-4成医学专家!超过一众高度微调模型,专业测试准确率首次超90%

王林
发布: 2023-12-04 14:25:45
转载
1139 人浏览过

微软最新研究再次证明了提示工程的威力——

无需额外微调,无需专家策划,仅凭提示,GPT-4就能化身“专家”。

使用他们提出的最新提示策略Medprompt,在医疗专业领域,GPT-4在MultiMed QA九个测试集中取得最优结果。

在MedQA数据集(美国医师执照考试题)上,Medprompt让GPT-4的准确率首次超过90%超越BioGPT和Med-PaLM等一众微调方法。

微软仅凭「提示工程」让GPT-4成医学专家!超过一众高度微调模型,专业测试准确率首次超90%

研究人员还表示Medprompt方法是通用的,不仅适用于医学,还可以推广到电气工程、机器学习、法律等专业中。

这项研究在X(原Twitter)一经分享,就引发众多网友关注。

微软仅凭「提示工程」让GPT-4成医学专家!超过一众高度微调模型,专业测试准确率首次超90%

沃顿商学院教授Ethan Mollick、Artificial Intuition作者Carlos E. Perez等都有转发分享。

Carlos E. Perez直呼“出色的提示策略可以甩微调一大截”:

微软仅凭「提示工程」让GPT-4成医学专家!超过一众高度微调模型,专业测试准确率首次超90%

有一些网友表示早就有这种预感,现在能看到结果出来,真的是太酷了!

微软仅凭「提示工程」让GPT-4成医学专家!超过一众高度微调模型,专业测试准确率首次超90%

有些网友认为这真的很“激进”

GPT-4是一项能改变行业的技术,而我们还远没有触及提示的极限,也未达到微调极限。

微软仅凭「提示工程」让GPT-4成医学专家!超过一众高度微调模型,专业测试准确率首次超90%

组合提示策略,“变身”专家

Medprompt是多种提示策略的组合体,包含三大法宝:

  • 动态少样本选择(Dynamic few-shot selection)
  • 自生成思维链(Self-generated chain of thought)
  • 选项洗牌集成(Choice shuffling ensemble)

接下来,我们将逐一进行介绍

微软仅凭「提示工程」让GPT-4成医学专家!超过一众高度微调模型,专业测试准确率首次超90%

动态少样本选择

少样本学习是让模型快速学习上下文的一种有效的方法。简单来说,就是输入一些示例,让模型快速适应特定领域,并学习遵循任务的格式。

这种用于特定任务提示的少样本示例通常是固定的,所以对示例的代表性和广泛性有较高的要求。

之前一种方法是让领域专家手动制作范例,但即便如此,也不能保证专家策划的固定的少样本示例在每个任务中都有代表性。

微软研究人员提出了一种动态少样本示例的方法,因此

想法是,任务训练集可以作为少样本示例的来源,如果训练集足够大,那就可以为不同的任务输入选择不同的少样本示例。

在具体操作上,研究人员首先使用text-embedding-ada-002模型为每个训练样本和测试样本生成向量表示。然后,针对每个测试样本,通过比较向量的相似度,从训练样本中选择出与之最相似的k个样本

与微调方法相比,动态少样本选择利用了训练数据,但不需要对模型参数进行大量更新。

自生成思维链

思维链(CoT)方法是一种让模型逐步思考并生成一系列中间推理步骤的方法

以前的方法是依靠专家手动编写一些带有提示思维链的示例

微软仅凭「提示工程」让GPT-4成医学专家!超过一众高度微调模型,专业测试准确率首次超90%

在这里,研究人员发现,可以简单地要求GPT-4使用以下提示为训练示例生成思维链:

微软仅凭「提示工程」让GPT-4成医学专家!超过一众高度微调模型,专业测试准确率首次超90%

但研究人员也指出这种自动生成的思维链可能包含错误的推理步骤,于是设置了一个验证标签作为过滤器,可以有效减少错误。

与在Med-PaLM 2模型中专家手工制作的思维链示例相比,GPT-4生成的思维链基本原理更长,而且分步推理逻辑更细粒度。

选项洗牌集成

GPT-4在处理选择题时可能存在一种偏见,即无论选项的内容是什么,它倾向于总是选择A或总是选择B,这就是位置偏差

为了解决这个问题,研究人员决定对原有的选项进行顺序重排,以减少影响。例如,原本的选项顺序为ABCD,可以改为BCDA、CDAB等

然后让GPT-4做多轮预测,每轮使用选项的一个不同排列顺序。如此一来“迫使”GPT-4考虑选项的内容。

最后对多轮预测结果做个投票,选择最一致、正确的选项。

将以上几种提示策略组合在一起就是Medprompt,下面来看测试结果。

多项测试最优

在测试中,研究人员采用了MultiMed QA评估基准。

微软仅凭「提示工程」让GPT-4成医学专家!超过一众高度微调模型,专业测试准确率首次超90%

使用Medprompt提示策略的GPT-4,在MultiMedQA的九个基准数据集中均取得最高分,优于Flan-PaLM 540B、Med-PaLM 2。

此外,研究人员还讨论了Medprompt策略在“Eyes-Off”数据上的表现。所谓“Eyes-Off”数据,指的是模型在训练或优化过程中未曾见过的数据,用于检验模型是否过拟合训练数据

微软仅凭「提示工程」让GPT-4成医学专家!超过一众高度微调模型,专业测试准确率首次超90%

结果GPT-4结合Medprompt策略在多个医学基准数据集上表现出色,平均准确率达到了91.3%。

研究人员对MedQA数据集进行了消融实验,以探索三个组件对整体性能的相对贡献

微软仅凭「提示工程」让GPT-4成医学专家!超过一众高度微调模型,专业测试准确率首次超90%

在其中,自动生成思维链步骤对于性能的提升起着最大的作用

微软仅凭「提示工程」让GPT-4成医学专家!超过一众高度微调模型,专业测试准确率首次超90%

GPT-4自动生成的思维链得分比Med-PaLM 2中专家策划的得分更高,并且不需要人工干预

微软仅凭「提示工程」让GPT-4成医学专家!超过一众高度微调模型,专业测试准确率首次超90%

最后,研究人员还探索了Medprompt的跨域泛化能力,取用了MMLU基准中的六个不同的数据集,涵盖了电气工程、机器学习、哲学、专业会计、专业法律和专业心理学的问题。

还添加了另外两个包含NCLEX(美国护士执照考试)问题的数据集。

结果显示,Medprompt在这些数据集上的效果与在MultiMedQA医学数据集上的提升幅度相近,平均准确率提高了7.3%。

微软仅凭「提示工程」让GPT-4成医学专家!超过一众高度微调模型,专业测试准确率首次超90%

请点击以下链接查看论文:https://arxiv.org/pdf/2311.16452.pdf

以上是微软仅凭「提示工程」让GPT-4成医学专家!超过一众高度微调模型,专业测试准确率首次超90%的详细内容。更多信息请关注PHP中文网其他相关文章!

相关标签:
来源:51cto.com
本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责声明 Sitemap
PHP中文网:公益在线PHP培训,帮助PHP学习者快速成长!