Saya cuba menggunakan model meta-llama/Llama-2-7b-hf dan menjalankannya secara setempat di premis saya tetapi sesi itu ranap semasa proses.
Saya cuba menggunakan model meta-llama/Llama-2-7b-hf dan menjalankannya secara setempat di premis saya. Untuk melakukan ini, saya menggunakan Google Colab dan telah memperoleh kunci akses daripada Hugging Face. Saya menggunakan perpustakaan transformer mereka untuk tugasan yang diperlukan. Pada mulanya, saya menggunakan tindanan masa jalan GPU T4 pada Google Colab, yang menyediakan 12.7 GB RAM sistem, 15.0 GB RAM GPU dan 78.2 GB ruang cakera. Walaupun sumber ini, sesi saya ranap dan saya mengalami ralat berikut:
Seterusnya, saya beralih kepada timbunan masa jalan TPU V2, yang menawarkan 334.6 GB RAM sistem dan 225.3 GB ruang cakera, tetapi isu itu berterusan.
Ini kod saya:
!pip install transformers !pip install --upgrade transformers from huggingface_hub import login login(token='Access Token From Hugging Face') import pandas as pd from transformers import AutoTokenizer, AutoModelForSequenceClassification, TrainingArguments, Trainer from torch.utils.data import Dataset # Load pre-trained Meta-Llama-3.1-8B model model_name = "meta-llama/Llama-2-7b-hf" tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForSequenceClassification.from_pretrained(model_name)
Atas ialah kandungan terperinci Mengapakah sesi Google Colab saya ranap semasa menjalankan model Llama?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!