我正在嘗試使用 meta-llama/Llama-2-7b-hf 模型並在我的場所本地運行它,但會話在此過程中崩潰了。
我正在嘗試使用meta-llama/Llama-2-7b-hf 模型並在我的地方本地運行它。為此,我使用 Google Colab 並從 Hugging Face 取得了存取金鑰。我正在利用他們的變壓器庫來完成必要的任務。最初,我在 Google Colab 上使用 T4 GPU 運行時堆疊,它提供 12.7 GB 系統 RAM、15.0 GB GPU RAM 和 78.2 GB 磁碟空間。儘管有這些資源,我的會話還是崩潰了,並且遇到了以下錯誤:
隨後,我切換到 TPU V2 運行時堆疊,它提供 334.6 GB 系統 RAM 和 225.3 GB 磁碟空間,但問題仍然存在。
這是我的程式碼:
!pip install transformers !pip install --upgrade transformers from huggingface_hub import login login(token='Access Token From Hugging Face') import pandas as pd from transformers import AutoTokenizer, AutoModelForSequenceClassification, TrainingArguments, Trainer from torch.utils.data import Dataset # Load pre-trained Meta-Llama-3.1-8B model model_name = "meta-llama/Llama-2-7b-hf" tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForSequenceClassification.from_pretrained(model_name)
以上是為什麼我的 Google Colab 會話在運行 Llama 模型時崩潰?的詳細內容。更多資訊請關注PHP中文網其他相關文章!