


Beispielcode für die Implementierung von Support-Vektor-Maschinen mit mehreren Klassen mithilfe von TensorFlow
In diesem Artikel wird hauptsächlich der Beispielcode für die Implementierung von Multi-Class-Support-Vektor-Maschinen mit TensorFlow vorgestellt. Jetzt teile ich ihn mit Ihnen und gebe ihn als Referenz. Kommen Sie und werfen Sie gemeinsam einen Blick darauf
Dieser Artikel zeigt im Detail einen mehrklassigen Support-Vector-Maschinenklassifikator, der auf dem Iris-Datensatz trainiert wurde, um drei Arten von Blumen zu klassifizieren.
Der SVM-Algorithmus wurde ursprünglich für binäre Klassifizierungsprobleme entwickelt, kann jedoch durch einige Strategien auch für die Klassifizierung mehrerer Klassen verwendet werden. Die beiden Hauptstrategien sind: Eins-gegen-Alle-Ansatz (Einer-gegen-Alle) und Eins-gegen-Eins-Ansatz (Einer-gegen-Eins).
Die Eins-zu-Eins-Methode besteht darin, einen binären Klassifikator zwischen zwei beliebigen Stichprobentypen zu entwerfen und zu erstellen. Anschließend ist die Kategorie mit den meisten Stimmen die vorhergesagte Kategorie der unbekannten Stichprobe. Wenn es jedoch viele Kategorien (k Kategorien) gibt, müssen k erstellt werden! /(k-2)! 2! Für einen Klassifikator ist der Rechenaufwand immer noch recht hoch.
Eine andere Möglichkeit, einen Mehrklassen-Klassifikator zu implementieren, ist One-to-Many, wodurch ein Klassifikator für jede Klasse erstellt wird. Die letzte vorhergesagte Klasse ist die Klasse mit dem größten SVM-Intervall. In diesem Artikel wird diese Methode implementiert.
Wir laden den Iris-Datensatz und verwenden ein nichtlineares SVM-Modell mit mehreren Klassen und einer Gaußschen Kernelfunktion. Der Irisdatensatz enthält drei Kategorien: Bergiris, veränderbare Iris und Virginia-Iris (I.setosa, I.virginica und I.versicolor). Wir werden drei Gaußsche Kernelfunktionen SVM für die Vorhersage erstellen.
# Multi-class (Nonlinear) SVM Example #---------------------------------- # # This function wll illustrate how to # implement the gaussian kernel with # multiple classes on the iris dataset. # # Gaussian Kernel: # K(x1, x2) = exp(-gamma * abs(x1 - x2)^2) # # X : (Sepal Length, Petal Width) # Y: (I. setosa, I. virginica, I. versicolor) (3 classes) # # Basic idea: introduce an extra dimension to do # one vs all classification. # # The prediction of a point will be the category with # the largest margin or distance to boundary. import matplotlib.pyplot as plt import numpy as np import tensorflow as tf from sklearn import datasets from tensorflow.python.framework import ops ops.reset_default_graph() # Create graph sess = tf.Session() # Load the data # 加载iris数据集并为每类分离目标值。 # 因为我们想绘制结果图,所以只使用花萼长度和花瓣宽度两个特征。 # 为了便于绘图,也会分离x值和y值 # iris.data = [(Sepal Length, Sepal Width, Petal Length, Petal Width)] iris = datasets.load_iris() x_vals = np.array([[x[0], x[3]] for x in iris.data]) y_vals1 = np.array([1 if y==0 else -1 for y in iris.target]) y_vals2 = np.array([1 if y==1 else -1 for y in iris.target]) y_vals3 = np.array([1 if y==2 else -1 for y in iris.target]) y_vals = np.array([y_vals1, y_vals2, y_vals3]) class1_x = [x[0] for i,x in enumerate(x_vals) if iris.target[i]==0] class1_y = [x[1] for i,x in enumerate(x_vals) if iris.target[i]==0] class2_x = [x[0] for i,x in enumerate(x_vals) if iris.target[i]==1] class2_y = [x[1] for i,x in enumerate(x_vals) if iris.target[i]==1] class3_x = [x[0] for i,x in enumerate(x_vals) if iris.target[i]==2] class3_y = [x[1] for i,x in enumerate(x_vals) if iris.target[i]==2] # Declare batch size batch_size = 50 # Initialize placeholders # 数据集的维度在变化,从单类目标分类到三类目标分类。 # 我们将利用矩阵传播和reshape技术一次性计算所有的三类SVM。 # 注意,由于一次性计算所有分类, # y_target占位符的维度是[3,None],模型变量b初始化大小为[3,batch_size] x_data = tf.placeholder(shape=[None, 2], dtype=tf.float32) y_target = tf.placeholder(shape=[3, None], dtype=tf.float32) prediction_grid = tf.placeholder(shape=[None, 2], dtype=tf.float32) # Create variables for svm b = tf.Variable(tf.random_normal(shape=[3,batch_size])) # Gaussian (RBF) kernel 核函数只依赖x_data gamma = tf.constant(-10.0) dist = tf.reduce_sum(tf.square(x_data), 1) dist = tf.reshape(dist, [-1,1]) sq_dists = tf.multiply(2., tf.matmul(x_data, tf.transpose(x_data))) my_kernel = tf.exp(tf.multiply(gamma, tf.abs(sq_dists))) # Declare function to do reshape/batch multiplication # 最大的变化是批量矩阵乘法。 # 最终的结果是三维矩阵,并且需要传播矩阵乘法。 # 所以数据矩阵和目标矩阵需要预处理,比如xT·x操作需额外增加一个维度。 # 这里创建一个函数来扩展矩阵维度,然后进行矩阵转置, # 接着调用TensorFlow的tf.batch_matmul()函数 def reshape_matmul(mat): v1 = tf.expand_dims(mat, 1) v2 = tf.reshape(v1, [3, batch_size, 1]) return(tf.matmul(v2, v1)) # Compute SVM Model 计算对偶损失函数 first_term = tf.reduce_sum(b) b_vec_cross = tf.matmul(tf.transpose(b), b) y_target_cross = reshape_matmul(y_target) second_term = tf.reduce_sum(tf.multiply(my_kernel, tf.multiply(b_vec_cross, y_target_cross)),[1,2]) loss = tf.reduce_sum(tf.negative(tf.subtract(first_term, second_term))) # Gaussian (RBF) prediction kernel # 现在创建预测核函数。 # 要当心reduce_sum()函数,这里我们并不想聚合三个SVM预测, # 所以需要通过第二个参数告诉TensorFlow求和哪几个 rA = tf.reshape(tf.reduce_sum(tf.square(x_data), 1),[-1,1]) rB = tf.reshape(tf.reduce_sum(tf.square(prediction_grid), 1),[-1,1]) pred_sq_dist = tf.add(tf.subtract(rA, tf.multiply(2., tf.matmul(x_data, tf.transpose(prediction_grid)))), tf.transpose(rB)) pred_kernel = tf.exp(tf.multiply(gamma, tf.abs(pred_sq_dist))) # 实现预测核函数后,我们创建预测函数。 # 与二类不同的是,不再对模型输出进行sign()运算。 # 因为这里实现的是一对多方法,所以预测值是分类器有最大返回值的类别。 # 使用TensorFlow的内建函数argmax()来实现该功能 prediction_output = tf.matmul(tf.multiply(y_target,b), pred_kernel) prediction = tf.arg_max(prediction_output-tf.expand_dims(tf.reduce_mean(prediction_output,1), 1), 0) accuracy = tf.reduce_mean(tf.cast(tf.equal(prediction, tf.argmax(y_target,0)), tf.float32)) # Declare optimizer my_opt = tf.train.GradientDescentOptimizer(0.01) train_step = my_opt.minimize(loss) # Initialize variables init = tf.global_variables_initializer() sess.run(init) # Training loop loss_vec = [] batch_accuracy = [] for i in range(100): rand_index = np.random.choice(len(x_vals), size=batch_size) rand_x = x_vals[rand_index] rand_y = y_vals[:,rand_index] sess.run(train_step, feed_dict={x_data: rand_x, y_target: rand_y}) temp_loss = sess.run(loss, feed_dict={x_data: rand_x, y_target: rand_y}) loss_vec.append(temp_loss) acc_temp = sess.run(accuracy, feed_dict={x_data: rand_x, y_target: rand_y, prediction_grid:rand_x}) batch_accuracy.append(acc_temp) if (i+1)%25==0: print('Step #' + str(i+1)) print('Loss = ' + str(temp_loss)) # 创建数据点的预测网格,运行预测函数 x_min, x_max = x_vals[:, 0].min() - 1, x_vals[:, 0].max() + 1 y_min, y_max = x_vals[:, 1].min() - 1, x_vals[:, 1].max() + 1 xx, yy = np.meshgrid(np.arange(x_min, x_max, 0.02), np.arange(y_min, y_max, 0.02)) grid_points = np.c_[xx.ravel(), yy.ravel()] grid_predictions = sess.run(prediction, feed_dict={x_data: rand_x, y_target: rand_y, prediction_grid: grid_points}) grid_predictions = grid_predictions.reshape(xx.shape) # Plot points and grid plt.contourf(xx, yy, grid_predictions, cmap=plt.cm.Paired, alpha=0.8) plt.plot(class1_x, class1_y, 'ro', label='I. setosa') plt.plot(class2_x, class2_y, 'kx', label='I. versicolor') plt.plot(class3_x, class3_y, 'gv', label='I. virginica') plt.title('Gaussian SVM Results on Iris Data') plt.xlabel('Pedal Length') plt.ylabel('Sepal Width') plt.legend(loc='lower right') plt.ylim([-0.5, 3.0]) plt.xlim([3.5, 8.5]) plt.show() # Plot batch accuracy plt.plot(batch_accuracy, 'k-', label='Accuracy') plt.title('Batch Accuracy') plt.xlabel('Generation') plt.ylabel('Accuracy') plt.legend(loc='lower right') plt.show() # Plot loss over time plt.plot(loss_vec, 'k-') plt.title('Loss per Generation') plt.xlabel('Generation') plt.ylabel('Loss') plt.show()
Ausgabe:
Anleitung zum Aktualisieren:
Verwenden Sie stattdessen „argmax“
Schritt #25
Verlust = -313,391
Schritt #50
Verlust = -650,891
Schritt #75
Verlust = -988,39
Schritt #100
Verlust = -1325,89
Ergebnisse der Mehrfachklassifizierung (drei Kategorien) des nichtlinearen Gaußschen SVM-Modells von I.Setosa, wobei der Gammawert 10 beträgt
Der Schwerpunkt liegt auf der Änderung des SVM-Algorithmus, um die drei Arten von SVM-Modellen gleichzeitig zu optimieren. Der Modellparameter b wird für drei Modelle durch Addition einer Dimension berechnet. Wir können sehen, dass der Algorithmus mithilfe der integrierten Funktionen von TensorFlow problemlos auf mehrere Arten ähnlicher Algorithmen erweitert werden kann.
Verwandte Empfehlungen:
TensorFlow-Implementierungsmethode der nichtlinearen Support-Vektor-Maschine
Das obige ist der detaillierte Inhalt vonBeispielcode für die Implementierung von Support-Vektor-Maschinen mit mehreren Klassen mithilfe von TensorFlow. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen

Bei Verwendung von Windows Shello kann keine unterstützte Kamera gefunden werden. Die häufigsten Gründe sind, dass die verwendete Kamera keine Gesichtserkennung unterstützt und der Kameratreiber nicht richtig installiert ist. Windowshello kann kein unterstütztes Kamera-Tutorial finden: Grund 1: Der Kameratreiber ist nicht korrekt installiert. 1. Im Allgemeinen kann das Win10-System Treiber für die meisten Kameras automatisch installieren. Nach dem Anschließen der Kamera wird wie folgt eine Benachrichtigung angezeigt. Zu diesem Zeitpunkt öffnen wir das Gerät. Überprüfen Sie im Manager, ob der Kameratreiber installiert ist. Wenn nicht, müssen Sie dies manuell tun. WIN+X, dann Geräte-Manager auswählen. 3. Erweitern Sie im Geräte-Manager-Fenster die Kameraoption und das Kameratreibermodell wird angezeigt.

Installationsschritte: 1. Laden Sie Miniconda herunter und installieren Sie es, wählen Sie die entsprechende Miniconda-Version entsprechend dem Betriebssystem aus und installieren Sie es gemäß der offiziellen Anleitung. 2. Verwenden Sie den Befehl „conda create -n tensorflow_env python = 3.7“, um eine neue Conda-Umgebung zu erstellen 3. Aktivieren Sie die Conda-Umgebung. 4. Verwenden Sie den Befehl „conda install tensorflow“, um die neueste Version von TensorFlow zu installieren.

Unterstützt PyCharm Community Edition genügend Plugins? Benötigen Sie spezifische Codebeispiele Da die Python-Sprache im Bereich der Softwareentwicklung immer häufiger verwendet wird, wird PyCharm als professionelle integrierte Python-Entwicklungsumgebung (IDE) von Entwicklern bevorzugt. PyCharm ist in zwei Versionen unterteilt: die professionelle Version und die Community-Version. Die Community-Version wird kostenlos bereitgestellt, die Plug-in-Unterstützung ist jedoch im Vergleich zur professionellen Version eingeschränkt. Die Frage ist also: Unterstützt die PyCharm Community Edition genügend Plug-Ins? In diesem Artikel werden spezifische Codebeispiele verwendet

Vor- und Nachteile von Open-Source-Software: Um die Vor- und Nachteile von Open-Source-Projekten zu verstehen, sind konkrete Codebeispiele erforderlich. Im heutigen digitalen Zeitalter erhält Open-Source-Software immer mehr Aufmerksamkeit und Respekt. Als Softwareentwicklungsmodell, das auf dem Geist der Zusammenarbeit und des Austauschs basiert, wird Open-Source-Software in verschiedenen Bereichen häufig eingesetzt. Trotz der vielen Vorteile von Open-Source-Software gibt es jedoch auch einige Herausforderungen und Einschränkungen. Dieser Artikel befasst sich mit den Vor- und Nachteilen von Open-Source-Software und demonstriert die Vor- und Nachteile von Open-Source-Projekten anhand konkreter Codebeispiele. 1. Vorteile von Open-Source-Software 1.1 Offenheit und Transparenz Open-Source-Software

Das ASUS tufz790plus unterstützt die Speicherfrequenz. Das ASUS TUFZ790-PLUS-Motherboard ist ein Hochleistungs-Motherboard, das Dual-Channel-DDR4-Speicher unterstützt und bis zu 64 GB Speicher unterstützt. Seine Speicherfrequenz ist mit bis zu 4800 MHz sehr leistungsstark. Spezifische unterstützte Speicherfrequenzen umfassen 2133 MHz, 2400 MHz, 2666 MHz, 2800 MHz, 3000 MHz, 3200 MHz, 3600 MHz, 3733 MHz, 3866 MHz, 4000 MHz, 4133 MHz, 4266 MHz, 4400 MHz, 4533 MHz, 4600 MHz, 4733 MHz und 4800 MHz. Ob im täglichen Gebrauch oder bei hohen Leistungsanforderungen

Einige Benutzer verwenden das XP-System und möchten ihre Grafikkarten auf GTX960 aktualisieren, sind sich jedoch nicht sicher, ob GTX960 das XP-System unterstützt. Tatsächlich unterstützt GTX960 das XP-System. Wir müssen nur den für das XP-System geeigneten Treiber von der offiziellen Website herunterladen und können dann GTX960 verwenden. Werfen wir einen Blick auf die einzelnen Schritte unten. Unterstützt GTX960 das XP-System: GTX960 ist mit dem XP-System kompatibel. Laden Sie einfach den Treiber herunter, installieren Sie ihn und schon kann es losgehen. Zuerst müssen wir die offizielle NVIDIA-Website öffnen und zur Startseite navigieren. Dann müssen wir über der Seite eine Beschriftung oder Schaltfläche finden, die wahrscheinlich die Bezeichnung „Treiber“ trägt. Sobald wir diese Option gefunden haben, müssen wir darauf klicken

So implementieren Sie mit Flask-Babel die Unterstützung mehrerer Sprachen. Einführung: Mit der kontinuierlichen Entwicklung des Internets ist die Unterstützung mehrerer Sprachen für die meisten Websites und Anwendungen zu einer notwendigen Funktion geworden. Flask-Babel ist eine praktische und benutzerfreundliche Flask-Erweiterung, die mehrsprachige Unterstützung basierend auf der Babel-Bibliothek bietet. In diesem Artikel wird erläutert, wie Sie mit Flask-Babel mehrsprachige Unterstützung erreichen, und es werden Codebeispiele angehängt. 1. Flask-Babel installieren Bevor wir beginnen, müssen wir zuerst Flask-Bab installieren.

In diesem Artikel verwenden wir TensorFlow und Keras, um einen Bildklassifizierer zu erstellen, der zwischen Bildern von Katzen und Hunden unterscheiden kann. Dazu verwenden wir den Datensatz cats_vs_dogs aus dem TensorFlow-Datensatz. Der Datensatz besteht aus 25.000 beschrifteten Bildern von Katzen und Hunden, von denen 80 % für das Training, 10 % für die Validierung und 10 % für Tests verwendet werden. Laden von Daten Wir beginnen mit dem Laden des Datensatzes mit TensorFlowDatasets. Teilen Sie den Datensatz in Trainingssatz, Validierungssatz und Testsatz auf, die jeweils 80 %, 10 % und 10 % der Daten ausmachen, und definieren Sie eine Funktion zum Anzeigen einiger Beispielbilder im Datensatz. importtenso
