很多朋友都向我諮詢如何學習PyTorch,實踐證明,初學者只需掌握少量概念和用法即可。讓我們一起看看這個簡明指南的總結!
PyTorch 中的Tensors 是多維數組,類似 NumPy 的 ndarrays,但可在GPU 上運作:
import torch# Create a 2x3 tensortensor = torch.tensor([[1, 2, 3], [4, 5, 6]])print(tensor)
PyTorch 使用動態計算圖,在執行操作時即時建立計算圖,這為在運行時修改圖形提供了靈活性:
# Define two tensorsa = torch.tensor([2.], requires_grad=True)b = torch.tensor([3.], requires_grad=True)# Compute resultc = a * bc.backward()# Gradientsprint(a.grad)# Gradient w.r.t a
PyTorch 允許在CPU 和GPU 之間輕鬆切換。使用 .to(device) 即可:
device = "cuda" if torch.cuda.is_available() else "cpu"tensor = tensor.to(device)
PyTorch 的 autograd 為tensor的所有運算提供了自動微分功能,設定 requires_grad=True可以追蹤計算:
x = torch.tensor([2.], requires_grad=True)y = x**2y.backward()print(x.grad)# Gradient of y w.r.t x
PyTorch 提供了 nn.Module 類別來定義神經網路架構,透過子類化創建自訂層:
import torch.nn as nnclass SimpleNN(nn.Module):def __init__(self):super().__init__()self.fc = nn.Linear(1, 1)def forward(self, x):return self.fc(x)
PyTorch 在 nn 模組中提供了各種預定義層、損失函數和最佳化演算法:
loss_fn = nn.CrossEntropyLoss()optimizer = torch.optim.Adam(model.parameters(), lr=0.001)
為實現高效率的資料處理和批次,PyTorch 提供了 Dataset 和 DataLoader 類別:
from torch.utils.data import Dataset, DataLoaderclass CustomDataset(Dataset):# ... (methods to define)data_loader = DataLoader(dataset, batch_size=32, shuffle=True)
通常PyTorch 的訓練遵循以下模式:前向傳播、計算損失、反向傳遞和參數更新:
for epoch in range(epochs):for data, target in data_loader:optimizer.zero_grad()output = model(data)loss = loss_fn(output, target)loss.backward()optimizer.step()
# Savetorch.save(model.state_dict(), 'model_weights.pth')# Loadmodel.load_state_dict(torch.load('model_weights.pth'))
scripted_model = torch.jit.script(model)scripted_model.save("model_jit.pt")
以上是PyTorch 怎麼學?太簡單了的詳細內容。更多資訊請關注PHP中文網其他相關文章!