首页 后端开发 Python教程 只需几步即可将拥抱脸部模型部署到 AWS Lambda

只需几步即可将拥抱脸部模型部署到 AWS Lambda

Nov 29, 2024 pm 09:24 PM

是否曾经想将 Hugging Face 模型部署到 AWS Lambda,但却被容器构建、冷启动和模型缓存所困扰?以下是如何使用 Scaffoldly 在 5 分钟内完成此操作。

长话短说

  1. 在 AWS 中创建名为 .cache 的 EFS 文件系统:

    • 转到 AWS EFS 控制台
    • 点击“创建文件系统”
    • 将其命名为.cache
    • 选择任意 VPC(Scaffoldly 会处理剩下的事情!)
  2. 从 python-huggingface 分支创建您的应用程序:

     npx scaffoldly create app --template python-huggingface
    
    登录后复制
    登录后复制
  3. 部署它:

     cd my-app && npx scaffoldly deploy
    
    登录后复制
    登录后复制

就是这样!您将获得在 Lambda 上运行的 Hugging Face 模型(以 openai-community/gpt2 为例),并配有适当的缓存和容器部署。

专业提示:对于 EFS 设置,您可以将其自定义为突发模式下的单个 AZ,以进一步节省成本。 Scaffoldly 会将 Lambda 函数与 EFS 的 VPC、子网和安全组进行匹配。

✨ 查看现场演示和示例代码!

问题

将机器学习模型部署到 AWS Lambda 传统上涉及:

  • 构建和管理 Docker 容器
  • 弄清楚模型缓存和存储
  • 处理 Lambda 的大小限制
  • 管理冷启动
  • 设置 API 端点

当您只想为模型提供服务时,需要进行大量基础设施工作!

解决方案

Scaffoldly 通过一个简单的配置文件来处理所有这些复杂性。这是一个提供 Hugging Face 模型的完整应用程序(以 openai-community/gpt2 为例):

# app.py
from flask import Flask
from transformers import pipeline
app = Flask(__name__)
generator = pipeline('text-generation', model='openai-community/gpt2')
@app.route("/")
def hello_world():
    output = generator("Hello, world,")
    return output[0]['generated_text']
登录后复制
登录后复制
// requirements.txt
Flask ~= 3.0
gunicorn ~= 23.0
torch ~= 2.5
numpy ~= 2.1
transformers ~= 4.46
huggingface_hub[cli] ~= 0.26
登录后复制
登录后复制
// scaffoldly.json
{
  "name": "python-huggingface",
  "runtime": "python:3.12",
  "handler": "localhost:8000",
  "files": ["app.py"],
  "packages": ["pip:requirements.txt"],
  "resources": ["arn::elasticfilesystem:::file-system/.cache"],
  "schedules": {
    "@immediately": "huggingface-cli download openai-community/gpt2"
  },
  "scripts": {
    "start": "gunicorn app:app"
  },
  "memorySize": 1024
}
登录后复制
登录后复制

它是如何运作的

Scaffoldly 在幕后做了一些聪明的事情:

  1. 智能集装箱建筑

    • 自动创建针对 Lambda 优化的 Docker 容器
    • 处理所有 Python 依赖项,包括 PyTorch
    • 无需编写任何 Docker 命令即可推送到 ECR
  2. 高效的模型处理:

    • 使用 Amazon EFS 缓存模型文件
    • 部署后预下载模型以加快冷启动
    • 在 Lambda 中自动挂载缓存
  3. Lambda 就绪设置:

    • Rus 建立一个合适的 WSGI 服务器(gunicorn)
    • 创建公共 Lambda 函数 URL
    • 代理函数 URL 请求gunicorn
    • 管理 IAM 角色和权限

部署是什么样的

这是我在此示例中运行的 npx 脚手架部署命令的输出:

Deploy Hugging Face Models to AWS Lambda in teps

现实世界的性能和成本

成本:AWS Lambda、ECR 和 EFS 约 0.20 美元/天

冷启动:第一次请求约 20 秒(模型加载)

热烈请求:5-20秒(基于CPU的推理)

虽然此设置使用 CPU 推理(比 GPU 慢),但这是一种试验 ML 模型或服务低流量端点的极其经济高效的方法。

其他型号定制

想要使用不同的模型吗?只需更新两个文件:

  1. 更改app.py中的模型:
 npx scaffoldly create app --template python-huggingface
登录后复制
登录后复制
  1. 更新scaffoldly.json中的下载:
 cd my-app && npx scaffoldly deploy
登录后复制
登录后复制

使用私有或门控模型

Scaffoldly 通过 HF_TOKEN 环境变量支持私有和门控模型。您可以通过多种方式添加 Hugging Face 令牌:

  • 本地开发:添加到您的 shell 配置文件(.bashrc、.zprofile 等):
# app.py
from flask import Flask
from transformers import pipeline
app = Flask(__name__)
generator = pipeline('text-generation', model='openai-community/gpt2')
@app.route("/")
def hello_world():
    output = generator("Hello, world,")
    return output[0]['generated_text']
登录后复制
登录后复制
  • CI/CD:添加为 GitHub Actions Secret:
// requirements.txt
Flask ~= 3.0
gunicorn ~= 23.0
torch ~= 2.5
numpy ~= 2.1
transformers ~= 4.46
huggingface_hub[cli] ~= 0.26
登录后复制
登录后复制

令牌将自动用于下载和访问您的私人或门控模型。

CI/CD 奖金

Scaffoldly 甚至生成用于自动部署的 GitHub Action:

// scaffoldly.json
{
  "name": "python-huggingface",
  "runtime": "python:3.12",
  "handler": "localhost:8000",
  "files": ["app.py"],
  "packages": ["pip:requirements.txt"],
  "resources": ["arn::elasticfilesystem:::file-system/.cache"],
  "schedules": {
    "@immediately": "huggingface-cli download openai-community/gpt2"
  },
  "scripts": {
    "start": "gunicorn app:app"
  },
  "memorySize": 1024
}
登录后复制
登录后复制

自己尝试一下

完整的示例可以在 GitHub 上找到:
脚手架/脚手架示例#python-huggingface

您可以通过运行以下命令创建您自己的示例副本:

generator = pipeline('text-generation', model='your-model-here')
登录后复制

您可以看到它正在实时运行(尽管由于 CPU 推断,响应可能会很慢):
现场演示

接下来是什么?

  • 尝试部署不同的拥抱脸模型
  • 加入 Discord 上的 Scaffoldly 社区
  • 查看其他示例
  • 如果您觉得这有用,请给我们的代码库加星标!
    • 脚手架工具链
    • Scaffoldly 示例存储库

许可证

Scaffoldly 是开源的,欢迎社区贡献。

  • 这些示例已获得 Apache-2.0 许可证的许可。
  • 脚手架工具链已获得 FSL-1.1-Apache-2.0 许可证。

您还想在 AWS Lambda 中运行哪些其他模型?请在评论中告诉我!

以上是只需几步即可将拥抱脸部模型部署到 AWS Lambda的详细内容。更多信息请关注PHP中文网其他相关文章!

本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn

热AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover

AI Clothes Remover

用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool

Undress AI Tool

免费脱衣服图片

Clothoff.io

Clothoff.io

AI脱衣机

AI Hentai Generator

AI Hentai Generator

免费生成ai无尽的。

热门文章

R.E.P.O.能量晶体解释及其做什么(黄色晶体)
2 周前 By 尊渡假赌尊渡假赌尊渡假赌
仓库:如何复兴队友
4 周前 By 尊渡假赌尊渡假赌尊渡假赌
Hello Kitty Island冒险:如何获得巨型种子
3 周前 By 尊渡假赌尊渡假赌尊渡假赌

热工具

记事本++7.3.1

记事本++7.3.1

好用且免费的代码编辑器

SublimeText3汉化版

SublimeText3汉化版

中文版,非常好用

禅工作室 13.0.1

禅工作室 13.0.1

功能强大的PHP集成开发环境

Dreamweaver CS6

Dreamweaver CS6

视觉化网页开发工具

SublimeText3 Mac版

SublimeText3 Mac版

神级代码编辑软件(SublimeText3)

如何使用Python查找文本文件的ZIPF分布 如何使用Python查找文本文件的ZIPF分布 Mar 05, 2025 am 09:58 AM

如何使用Python查找文本文件的ZIPF分布

如何在Python中下载文件 如何在Python中下载文件 Mar 01, 2025 am 10:03 AM

如何在Python中下载文件

python中的图像过滤 python中的图像过滤 Mar 03, 2025 am 09:44 AM

python中的图像过滤

我如何使用美丽的汤来解析HTML? 我如何使用美丽的汤来解析HTML? Mar 10, 2025 pm 06:54 PM

我如何使用美丽的汤来解析HTML?

如何使用Python使用PDF文档 如何使用Python使用PDF文档 Mar 02, 2025 am 09:54 AM

如何使用Python使用PDF文档

如何在django应用程序中使用redis缓存 如何在django应用程序中使用redis缓存 Mar 02, 2025 am 10:10 AM

如何在django应用程序中使用redis缓存

引入自然语言工具包(NLTK) 引入自然语言工具包(NLTK) Mar 01, 2025 am 10:05 AM

引入自然语言工具包(NLTK)

如何使用TensorFlow或Pytorch进行深度学习? 如何使用TensorFlow或Pytorch进行深度学习? Mar 10, 2025 pm 06:52 PM

如何使用TensorFlow或Pytorch进行深度学习?

See all articles