KNN算法是一种简单易用的分类算法,适用于小规模数据集和低维特征空间。它在图像分类、文本分类等领域中表现出色,因其实现简单、易于理解而备受青睐。
KNN算法的基本思想是通过比较待分类样本的特征与训练样本的特征,找到最接近的K个邻居,并根据这K个邻居的类别确定待分类样本的类别。KNN算法中使用已标记好类别的训练集和待分类的测试集。KNN算法的分类过程包括以下几个步骤:首先,计算待分类样本与所有训练样本之间的距离;其次,选择距离最近的K个邻居;然后,根据K个邻居的类别进行投票,得出待分类样本的类别;最后,将待分类样本的类别确定为投票结果中得票最多的类别。通过这些步骤,KNN算法可以对待分类样本进行准确的分类。
1.计算距离
对于未分类的测试样本,需计算其与训练集所有样本的距离,常用欧式、曼哈顿等方法。
2.选择K个邻居
根据计算出来的距离,选择与待分类样本距离最近的K个训练集样本。这些样本就是待分类样本的K个邻居。
3.确定类别
根据K个邻居的类别来确定待分类样本的类别。通常采用“多数表决法”来确定待分类样本的类别,即选择K个邻居中出现最多的类别作为待分类样本的类别。
KNN算法相对简单,但也有一些需要注意的问题。首先,K值的选择对算法的性能有很大的影响,通常需要通过交叉验证等方法来确定最优的K值。其次,KNN算法对数据集的规模和维度敏感,对于大规模和高维数据集的处理会出现效率问题。此外,KNN算法还存在“类别不平衡”的问题,即某些类别的样本数量较少,可能导致算法对这些类别的分类效果较差。
以下是一个使用Python实现KNN算法的分类实例,代码如下:
import numpy as np from collections import Counter class KNN: def __init__(self, k): self.k = k def fit(self, X, y): self.X_train = X self.y_train = y def predict(self, X_test): predictions = [] for x_test in X_test: distances = [] for x_train in self.X_train: distance = np.sqrt(np.sum((x_test - x_train)**2)) distances.append(distance) idx = np.argsort(distances)[:self.k] k_nearest_labels = [self.y_train[i] for i in idx] most_common = Counter(k_nearest_labels).most_common(1) predictions.append(most_common[0][0]) return np.array(predictions)
这个KNN类的构造函数中传入参数k表示选择多少个邻居来进行分类。fit方法用于训练模型,接受一个训练集X和它们对应的标签y。predict方法用于对测试集进行分类,接受一个测试集X_test,返回预测的标签。
在predict方法中,对于每个测试样本,首先计算它与训练集中所有样本的距离,并选择距离最近的k个样本。然后,统计这k个样本中出现最频繁的标签,并作为测试样本的分类标签。
下面是一个使用这个KNN类进行分类的例子,数据集为一个二维平面上的点集,其中红色点表示类别1,蓝色点表示类别2:
import matplotlib.pyplot as plt # 生成数据集 X = np.random.rand(200, 2) * 5 - 2.5 y = np.zeros(200) y[np.sum(X**2, axis=1) > 2] = 1 # 分割训练集和测试集 train_idx = np.random.choice(200, 150, replace=False) test_idx = np.array(list(set(range(200)) - set(train_idx))) X_train, y_train = X[train_idx], y[train_idx] X_test, y_test = X[test_idx], y[test_idx] # 训练模型并进行预测 knn = KNN(k=5) knn.fit(X_train, y_train) y_pred = knn.predict(X_test) # 计算准确率并绘制分类结果 accuracy = np.mean(y_pred == y_test) print("Accuracy:", accuracy) plt.scatter(X_test[:, 0], X_test[:, 1], c=y_pred) plt.show()
运行这段代码后,可以看到分类结果图像。其中,颜色表示预测的类别,红色表示类别1,蓝色表示类别2。根据分类结果,可以计算出模型的准确率。
这个实例展示了KNN算法在二维平面上的应用,通过计算距离来确定邻居,并根据邻居的类别来进行分类。在实际应用中,KNN算法可以用于图像分类、文本分类等领域,是一种简单而有效的分类算法。
以上是KNN算法分类的基本原理和实例的详细内容。更多信息请关注PHP中文网其他相关文章!