変分オートエンコーダ (VAE) は、画像の圧縮と生成に使用される教師なし学習ニューラル ネットワークです。従来のオートエンコーダと比較して、VAE は入力画像を再構築し、それらに似た新しい画像を生成できます。中心となるアイデアは、入力画像を潜在変数の分布にエンコードし、そこからサンプリングして新しい画像を生成することです。 VAE は、変分推論を使用してモデルをトレーニングする点が独特で、観測データと生成データの間の下限を最大化することでパラメーター学習を実現します。この方法により、VAE はデータの基礎となる構造を学習し、新しいサンプルを生成できるようになります。 VAE は、画像生成、属性編集、画像再構成などのタスクを含む多くの分野で目覚ましい成功を収めています。
VAE (可変オートエンコーダー) の構造はオートエンコーダーの構造と似ており、エンコーダーとデコーダーで構成されます。エンコーダは、入力画像を平均ベクトルと分散ベクトルを含む潜在変数の分布に圧縮します。デコーダは潜在変数をサンプリングして新しい画像を生成します。潜在変数の分布をより合理的にするために、VAE は KL 発散の正則化項を導入して、潜在変数の分布を標準正規分布に近づけます。そうすることで、モデルの表現力や生成能力を向上させることができます。
以下では、MNIST 手書き数字データ セットを例として、VAE の実装プロセスを紹介します。
まず、必要なライブラリとデータセットをインポートする必要があります。
import torch import torch.nn as nn import torch.optim as optim from torchvision import datasets, transforms from torch.autograd import Variable # 加载数据集 transform = transforms.Compose([ transforms.ToTensor(), ]) train_dataset = datasets.MNIST(root='./data/', train=True, transform=transform, download=True) train_loader = torch.utils.data.DataLoader(train_dataset, batch_size=128, shuffle=True)
次に、エンコーダとデコーダのネットワーク構造を定義します。
# 定义编码器 class Encoder(nn.Module): def __init__(self): super(Encoder, self).__init__() self.conv1 = nn.Conv2d(1, 32, kernel_size=3, stride=1, padding=1) self.conv2 = nn.Conv2d(32, 64, kernel_size=3, stride=2, padding=1) self.conv3 = nn.Conv2d(64, 128, kernel_size=3, stride=2, padding=1) self.fc1 = nn.Linear(128 * 7 * 7, 256) self.fc21 = nn.Linear(256, 20) # 均值向量 self.fc22 = nn.Linear(256, 20) # 方差向量 def forward(self, x): x = nn.functional.relu(self.conv1(x)) x = nn.functional.relu(self.conv2(x)) x = nn.functional.relu(self.conv3(x)) x = x.view(-1, 128 * 7 * 7) x = nn.functional.relu(self.fc1(x)) mean = self.fc21(x) log_var = self.fc22(x) return mean, log_var # 定义解码器 class Decoder(nn.Module): def __init__(self): super(Decoder, self).__init__() self.fc1 = nn.Linear(20, 256) self.fc2 = nn.Linear(256, 128 * 7 * 7) self.conv1 = nn.ConvTranspose2d(128, 64, kernel_size=3, stride=2, padding=1, output_padding=1) self.conv2 = nn.ConvTranspose2d(64, 32, kernel_size=3, stride=2, padding=1, output_padding=1) self.conv3 = nn.ConvTranspose2d(32, 1, kernel_size=3, stride=1, padding=1) def forward(self, x): x = nn.functional.relu(self.fc1(x)) x = nn.functional.relu(self.fc2(x)) x = x.view(-1, 128, 7, 7) x = nn.functional.relu(self.conv1(x)) x = nn.functional.relu(self.conv2(x)) x = nn.functional.sigmoid(self.conv3(x)) return x # 定义VAE模型 class VAE(nn.Module): def __init__(self): super(VAE, self).__init__() self.encoder = Encoder() self.decoder = Decoder() def reparameterize(self, mean, log_var): std = torch.exp(0.5 * log_var) eps = torch.randn_like(std) return eps * std + mean def forward(self, x): mean, log_var = self.encoder(x)
次のステップは、VAE モデルの順伝播プロセスです。これには、新しい画像を生成するための潜在変数からのサンプリングと、再構成誤差と KL 発散の正則化項の計算が含まれます。
z = self.reparameterize(mean, log_var) x_recon = self.decoder(z) return x_recon, mean, log_var def loss_function(self, x_recon, x, mean, log_var): recon_loss = nn.functional.binary_cross_entropy(x_recon, x, size_average=False) kl_loss = -0.5 * torch.sum(1 + log_var - mean.pow(2) - log_var.exp()) return recon_loss + kl_loss def sample(self, num_samples): z = torch.randn(num_samples, 20) samples = self.decoder(z) return samples
最後に、オプティマイザーを定義し、モデルのトレーニングを開始します。
# 定义优化器 vae = VAE() optimizer = optim.Adam(vae.parameters(), lr=1e-3) # 开始训练模型 num_epochs = 10 for epoch in range(num_epochs): for batch_idx, (data, _) in enumerate(train_loader): data = Variable(data) optimizer.zero_grad() x_recon, mean, log_var = vae(data) loss = vae.loss_function(x_recon, data, mean, log_var) loss.backward() optimizer.step() if batch_idx % 100 == 0: print('Epoch [{}/{}], Batch [{}/{}], Loss: {:.4f}'.format( epoch+1, num_epochs, batch_idx+1, len(train_loader), loss.data.item()))
トレーニングが完了したら、VAE を使用して新しい手書きの数字画像を生成できます。
# 生成手写数字图像 samples = vae.sample(10) fig, ax = plt.subplots(1, 10, figsize=(10, 1)) for i in range(10): ax[i].imshow(samples[i].detach().numpy().reshape(28, 28), cmap='gray') ax[i].axis('off') plt.show()
VAE は、入力画像を潜在変数の分布にエンコードし、そこからサンプリングして新しい画像を生成することで画像圧縮を実現する、強力な画像圧縮および生成モデルです。従来のオートエンコーダとは異なり、VAE では、潜在変数の分布をより合理的にするために、KL 発散の正則化項も導入されています。 VAEを実装する場合、エンコーダとデコーダのネットワーク構造を定義し、再構成誤差とKL発散の正則化項を計算する必要があります。 VAE モデルをトレーニングすることにより、入力画像の潜在変数分布を学習し、そこから新しい画像を生成できます。
以上は VAE の基本的な導入と実装プロセスです。読者の参考になれば幸いです。
以上が画像圧縮の実装プロセス: 変分オートエンコーダの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。