ディープラーニングは人工知能分野の重要な分野であり、近年ますます注目を集めています。深層学習の研究と応用を実施できるようにするには、多くの場合、それを達成するためにいくつかの深層学習フレームワークを使用する必要があります。この記事では、PHPとPyTorchを使ってディープラーニングを行う方法を紹介します。
1. PyTorch とは
PyTorch は Facebook が開発したオープンソースの機械学習フレームワークで、ディープ ラーニング モデルを迅速に作成してトレーニングするのに役立ちます。 PyTorch の特徴は、動的コンピューティング グラフを使用してモデルのトレーニングと最適化を実現することであり、この手法により複雑な深層学習モデルをより柔軟に作成できます。同時に、PyTorch は、ディープラーニングの研究とアプリケーションをより便利に実施するのに役立つ豊富な事前トレーニング済みモデルとアルゴリズムも提供します。
2. PHP と PyTorch を使用する理由
他のプログラミング言語と比較して、Python はディープラーニングの分野で非常に人気があり、人気のある言語です。 Python には、深層学習モデルの使用と展開を容易にするサードパーティ ライブラリとオープン ソース ツールが豊富にあります。一方、PHP も広く使用されているプログラミング言語であり、Web アプリケーションや Web サイトの開発に非常に人気があります。 PHP と PyTorch を使用すると、深層学習モデルを Web アプリケーションや Web サイトに適用して、さまざまなインテリジェントな機能を実現できます。たとえば、ディープ ラーニング モデルを Web アプリケーションに埋め込んで顔認識や画像分類などの機能を実装し、PHP を通じてフロントエンドと対話してユーザーに優れたエクスペリエンスを提供できます。
3. PHP と PyTorch をディープ ラーニングに使用する
以下では、PHP と PyTorch をディープ ラーニングに使用する方法を紹介します。
始める前に、PyTorch ライブラリをインストールする必要があります。インストールについては、PyTorch の公式ドキュメント (https://pytorch.org/get-started/locally/) を参照してください。
次に、ディープ ラーニング モデルを作成およびトレーニングするための簡単な Python スクリプトを作成します。このモデルは、手書きの数字を分類するために使用されます。
まず、PyTorch ライブラリとその他の必要なライブラリをインポートする必要があります:
import torch import torch.nn as nn import torch.optim as optim from torch.utils.data import DataLoader from torchvision import datasets, transforms
次に、ニューラル ネットワーク モデルを定義します:
class Net(nn.Module): def __init__(self): super(Net, self).__init__() self.conv1 = nn.Conv2d(1, 10, kernel_size=5) self.conv2 = nn.Conv2d(10, 20, kernel_size=5) self.dropout = nn.Dropout2d() self.fc1 = nn.Linear(320, 50) self.fc2 = nn.Linear(50, 10) def forward(self, x): x = nn.functional.relu(nn.functional.max_pool2d(self.conv1(x), 2)) x = nn.functional.relu(nn.functional.max_pool2d(self.dropout(self.conv2(x)), 2)) x = x.view(-1, 320) x = nn.functional.relu(self.fc1(x)) x = nn.functional.dropout(x, training=self.training) x = self.fc2(x) return nn.functional.log_softmax(x, dim=1)
このニューラル ネットワーク モデルには 2 つの畳み込み層が含まれていますそして 2 つの完全に接続された層。このうち、畳み込み層は入力画像の特徴を抽出するために使用され、全結合層は分類結果を出力するために使用されます。順伝播中、活性化関数として ReLU を使用し、モデルの一般化を促進するために最大プーリングとドロップアウトを使用します。
次に、いくつかのハイパーパラメータとトレーニング パラメータを定義する必要があります。
batch_size = 64 learning_rate = 0.01 momentum = 0.5 epochs = 10
この例では、単純なバッチ確率的勾配降下アルゴリズム (SGD) を使用してモデルを最適化します。各エポックでは、トレーニング データをバッチに分割し、各バッチをトレーニングして最適化します。トレーニング プロセス中に、トレーニング セットとテスト セットの損失と精度を計算して記録します。
train_loader = DataLoader( datasets.MNIST('./data', train=True, download=True, transform=transforms.Compose([transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,))])), batch_size=batch_size, shuffle=True) test_loader = DataLoader( datasets.MNIST('./data', train=False, transform=transforms.Compose([transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,))])), batch_size=batch_size, shuffle=True) model = Net() optimizer = optim.SGD(model.parameters(), lr=learning_rate, momentum=momentum) train_loss_history = [] train_acc_history = [] test_loss_history = [] test_acc_history = [] for epoch in range(1, epochs + 1): # Train model.train() for batch_idx, (data, target) in enumerate(train_loader): optimizer.zero_grad() output = model(data) loss = nn.functional.nll_loss(output, target) loss.backward() optimizer.step() if batch_idx % 10 == 0: print('Epoch [{}/{}], Train Batch: [{}/{}], Train Loss: {:.6f}'.format(epoch, epochs, batch_idx, len(train_loader), loss.item())) # Evaluate model.eval() train_loss = 0 train_correct = 0 test_loss = 0 test_correct = 0 with torch.no_grad(): for data, target in train_loader: output = model(data) train_loss += nn.functional.nll_loss(output, target, reduction='sum').item() pred = output.argmax(dim=1, keepdim=True) train_correct += pred.eq(target.view_as(pred)).sum().item() train_loss /= len(train_loader.dataset) train_acc = 100. * train_correct / len(train_loader.dataset) train_loss_history.append(train_loss) train_acc_history.append(train_acc) for data, target in test_loader: output = model(data) test_loss += nn.functional.nll_loss(output, target, reduction='sum').item() pred = output.argmax(dim=1, keepdim=True) test_correct += pred.eq(target.view_as(pred)).sum().item() test_loss /= len(test_loader.dataset) test_acc = 100. * test_correct / len(test_loader.dataset) test_loss_history.append(test_loss) test_acc_history.append(test_acc) print('Epoch {}: Train Loss: {:.6f}, Train Acc: {:.2f}%, Test Loss: {:.6f}, Test Acc: {:.2f}%'.format(epoch, train_loss, train_acc, test_loss, test_acc))
単純な深層学習モデルの作成とトレーニングが完了したので、PHP を使用して Python スクリプトを呼び出す方法を紹介します。この Python スクリプトは、実際のアプリケーションにトレーニング済みモデルを使用します。
PHP の exec 関数を使用して、Python スクリプトを呼び出すことができます。たとえば:
$output = exec("python train.py 2>&1", $output_array);
このコマンドは train.py スクリプトを実行し、出力結果を $output_array 配列に保存します。トレーニング プロセスに時間がかかる場合は、PHP のフラッシュ関数を使用してリアルタイム出力を実現できます。例:
echo ''; $output = exec("python train.py 2>&1", $output_array); foreach ($output_array as $o) { echo $o . '';
'; flush(); } echo '
この方法で、深層学習モデルを PHP アプリケーションに統合して使用できます。さまざまなインテリジェントな機能を提供します。
4. 概要
この記事では、単純な手書き数字分類モデルの作成とトレーニングを含む深層学習に PHP と PyTorch を使用する方法と、このモデルを PHP アプリケーションの中間部分に埋め込む方法を紹介します。 。このようにして、深層学習モデルをさまざまな Web アプリケーションや Web サイトに適用して、よりインテリジェントな機能やサービスを提供できます。
以上がPHP と PyTorch によるディープラーニングの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。