上週,微軟空降了一個堪稱GPT-4等級的開源模型WizardLM-2。
卻沒想到發布幾小時後,立刻被刪除了。
有網友突然發現,WizardLM的模型權重、公告帖子全部被刪除,並且不再微軟集合中,除了提到站點之外,卻找不到任何證據證明這個微軟的官方專案。
GitHub專案首頁已成404。
專案位址:https://wizardlm.github.io/
包含模型在HF上的權重,也全部消失了.....
#全網滿臉疑惑,WizardLM怎麼沒了?
然鵝,微軟之所以這麼做,是因為團隊內部忘記對模型做「測試」。
隨後,微軟團隊現身道歉並解釋道,自幾個月前WizardLM發布以來有一段時間,所以我們對現在新的發布流程不太熟悉。
我們不小心遺漏了模型發佈流程中所需的一項內容:投毒測試
去年6月,基於LlaMA微調而來的初代WizardLM一經發布,吸引了開源社群一大波關注。
論文網址:https://arxiv.org/pdf/2304.12244.pdf
隨後,代碼版的WizardCoder誕生-一個基於Code Llama,利用Evol-Instruct微調的模型。
測試結果顯示,WizardCoder在HumanEval上的pass@1達到了驚人的 73.2%,超越了原始GPT-4。
時間推進到4月15日,微軟開發者宣布了新一代WizardLM,這次是從Mixtral 8x22B微調而來。
它包含了三個參數版本,分別是8x22B、70B和7B。
最值得一提的是,在MT-Bench基準測試中,新模型取得了領先的優勢。
具體來說,最大參數版本的WizardLM 8x22B模型效能,幾乎接近GPT-4和Claude 3。
在相同參數規模下,70B版本位列第一。
而7B版本是最快的,甚至可以達到與,參數規模10倍大的領先模型相當的性能。
#WizardLM 2出色表现的背后的秘诀在于,微软开发的革命性训练方法论Evol-Instruct。
Evol-Instruct利用大型语言模型,迭代地将初始指令集改写成越来越复杂的变体。然后,利用这些演化指令数据对基础模型进行微调,从而显著提高其处理复杂任务的能力。
另一个是强化学习框架RLEIF,也在WizardLM 2开发过程中起到了重要作用。
在WizardLM 2训练中,还采用了AI Align AI(AAA)方法,可以让多个领先的大模型相互指导和改进。
AAA框架由两个主要的组件组成,分别是「共同教学」和「自学」。
共同教学这一阶段,WizardLM和各种获得许可的开源和专有先进模型进行模拟聊天、质量评判、改进建议和缩小技能差距。
通过相互交流和提供反馈,模型可向同行学习并完善自身能力。
对于自学,WizardLM可通过主动自学,为监督学习生成新的进化训练数据,为强化学习生成偏好数据。
这种自学机制允许模型通过学习自身生成的数据和反馈信息来不断提高性能。
另外,WizardLM 2模型的训练使用了生成的合成数据。
在研究人员看来,大模型的训练数据日益枯竭,相信AI精心创建的数据和AI逐步监督的模型将是通往更强大人工智能的唯一途径。
因此,他们创建了一个完全由AI驱动的合成训练系统来改进WizardLM-2。
然而,在资料库被删除之前,许多人已经下载了模型权重。
在该模型被删除之前,几个用户还在一些额外的基准上进行了测试。
好在测试的网友对7B模型感到印象深刻,并称这将是自己执行本地助理任务的首选模型。
还有人对其进行了投毒测试,发现WizardLM-8x22B的得分为98.33,而基础Mixtral-8x22B的得分为89.46,Mixtral 8x7B-Indict的得分为92.93。
得分越高越好,也就是说WizardLM-8x22B还是很强的。
如果没有投毒测试,将模型发出来是万万不可的。
大模型容易产生幻觉,人尽皆知。
如果WizardLM 2在回答中输出「有毒、有偏见、不正确」的内容,对大模型来说并不友好。
尤其是,这些错误引来全网关注,对与微软自身来说也会陷入非议之中,甚至会被当局调查。
有网友疑惑道,你可以通过「投毒测试」更新指标。为什么要删除整个版本库和权重?
微软作者表示,根据内部最新的规定,只能这样操作。
也有人表示,我們就想要沒有「腦葉切除」的模型。
不過,開發者們還需要耐心等待,微軟團隊承諾,會在測試完成後重新上線。
以上是發布幾小時,微軟秒刪媲美GPT-4開源大模型!竟因忘記投毒測試的詳細內容。更多資訊請關注PHP中文網其他相關文章!