过去的图像生成模型经常因为主要呈现白人形象而受到批评,而谷歌的 Gemini 模型则因为极端的矫枉过正而陷入困境。它的生成图像结果变得过分谨慎,与历史事实出现显著偏差,令用户感到惊讶。谷歌声称,该模型的谨慎程度超出了开发者的预期。这种谨慎不仅体现在生成的图像中,还表现在通常将一些提示视为敏感提示,进而拒绝提供答案。
在这个问题持续引起关注的时候,如何在安全性和可用性之间取得平衡成为了 Meta 面临的一个巨大挑战。LLaMA 2 在开源领域被视为一位"强中手",也成为了 Meta 的明星模型,一经推出就改变了大型模型的局面。目前,Meta 正在全力准备推出 LLaMa 3,但首先需要解决 LLaMA 2 遗留的问题:在回答有争议问题时显得过于保守。
Meta 在 Llama 2 中添加了防护措施,防止 LLM 回答各种有争议的问题。这种保守性虽然在处理极端情况时是必要的,如暴力或非法活动相关的查询,但同时也限制了模型在回答较为普通但稍带争议的问题上的能力。据 The Information 报道,当其想 LLaMA 2 提出「员工如何在强制到办公室的日子里避免进办公室」的问题时,会被拒绝提供建议,或是获得「尊重并遵守公司的政策和指导方针非常重要」。LLaMA 2 还拒绝提供如何恶作剧朋友、赢得战争或破坏汽车引擎的答案。这种保守的回答方式是为了避免公关灾难的发生。
不过,据透露,Meta 的高级领导层和一些参与模型工作的研究人员认为 LLaMA 2 的回答过于「打安全牌」。Meta 正在努力让即将推出的 LLaMA 3 模型在提供回答时能够更加灵活,提供更多上下文信息,而不是直接拒绝回答。研究人员正在尝试让 LLaMA 3 能够与用户有更多互动,更好地理解用户可能表达的含义。据悉, 新版本的模型将能更好地分辨一个词的多重含义。例如,LLaMA 3 可能会明白,关于如何破坏汽车引擎的问题是指如何熄火,而不是对其进行损毁。The Information 的报道中提到,Meta 还计划在未来几周内任命一名内部人员负责语气和安全培训,这也是该公司努力使模型回答更加细致入微的一部分。
Meta和谷歌需要克服的挑战不仅仅是找到这种平衡点,许多科技巨头也受到了不同程度的影响。他们需要努力打造人人喜欢、人人能使用、事事顺畅的产品,同时还要确保这些产品的安全性和可靠性。这是科技公司在追赶AI技术时必须直面的一个问题。
LLaMa 3 的发布万众瞩目,Meta 计划在 7 月份对其发布,但时间仍有可能发生变化。Meta 首席执行官马克・扎克伯格野心勃勃,曾说到「虽然 Llama 2 不是行业领先的模型,但却是最好的开源模型。对于 LLaMa 3 及其之后的模型,我们的目标是打造成为 SOTA,并最终成为行业领先的模型。」
原文地址:https://www.reuters.com/technology/meta-plans-launch-new-ai-language-model-llama-3-july-information-reports-2024-02-28/
Meta 希望 LLaMa 3 能够赶上 OpenAI 的 GPT-4。Meta 公司工作人员透露,目前还没有决定 LLaMa 3 是否将是多模态的,是否能够理解并生成文本和图像,因为研究人员还没有开始对模型进行微调。不过, LLaMa 预计将拥有超过 140 亿个参数,这将大大超过 LLaMa 2,预示着其在处理复杂查询方面的能力将得到显著提升。
除了管夠的 35 萬塊 H100 和數百億美元,人才也是 LLaMa 3 訓練的「必需品」。 Meta 透過其生成式 AI 小組開發 LLaMa,該小組與其基礎 AI 研究團隊是分開的。負責 LLaMa 2 和 3 安全的研究員 Louis Martin 於 2 月離開了公司。領導強化學習的 Kevin Stone 也在本月離開。這會不會對 LLaMa 3 的訓練產生影響尚不可知。 LLaMa 3 是否能夠掌握安全與可用性的平衡,在程式碼能力等方面給我們新的驚艷,我們拭目以待。
以上是LLaMa 3或將延後到7月發布,劍指GPT-4,從Gemini吸取教訓的詳細內容。更多資訊請關注PHP中文網其他相關文章!