首页 > 科技周边 > 人工智能 > 只需少量计算和内存资源即可运行的小型 Llama 大模型

只需少量计算和内存资源即可运行的小型 Llama 大模型

PHPz
发布: 2024-03-04 14:30:04
转载
838 人浏览过

背景介绍

在当前信息量爆炸的时代,语言模型的训练日益变得复杂和困难。为了培训一个高效的语言模型,我们需要大量的计算资源和时间,这对很多人来说是不切实际的。同时,我们也面临着如何在有限的内存和计算资源下运用大型语言模型的挑战,尤其是在边缘设备上。

今天要给大家推荐一个 GitHub 开源项目 jzhang38/TinyLlama,该项目在 GitHub 有超过 4.3k Star,用一句话介绍该项目就是:“The TinyLlama project is an open endeavor to pretrain a 1.1B Llama model on 3 trillion tokens.”。

只需少量计算和内存资源即可运行的小型 Llama 大模型

项目介绍

TinyLlama的目标是在3万亿个token上预训练一个1.1B Llama模型。通过适当的优化,我们可以在短短90天内使用16个A100-40G GPUs来实现这一目标。该项目采用了与Llama 2完全相同的架构和tokenizer,这意味着TinyLlama可以轻松嵌入并在许多基于Llama的开源项目中使用。此外,TinyLlama非常紧凑,只有1.1B个参数。这种紧凑性使其能够满足许多需要限制计算和内存占用的应用场景。

只需少量计算和内存资源即可运行的小型 Llama 大模型

只需少量计算和内存资源即可运行的小型 Llama 大模型

如何使用

直接下载模型就可以使用,或者通过 huggingface 使用 demo。

只需少量计算和内存资源即可运行的小型 Llama 大模型

如果你想自己训练的话,参考如下训练详情。

只需少量计算和内存资源即可运行的小型 Llama 大模型

项目推介

TinyLlama 是一个令人兴奋的开源项目,它正在积极解决一些关键问题,并在开源社区中得到了广泛的关注。

只需少量计算和内存资源即可运行的小型 Llama 大模型

以下是该项目 Star 趋势图(代表项目的活跃程度):

只需少量计算和内存资源即可运行的小型 Llama 大模型

更多项目详情请查看如下链接。

开源项目地址:https://github.com/jzhang38/TinyLlama

开源项目作者:jzhang38

以下是参与项目建设的所有成员:

只需少量计算和内存资源即可运行的小型 Llama 大模型

以上是只需少量计算和内存资源即可运行的小型 Llama 大模型的详细内容。更多信息请关注PHP中文网其他相关文章!

相关标签:
来源:51cto.com
本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板