算法概述

减法聚类算法(Subtractive Clustering Method)是一种不需要提前规定聚类数、只需根据样本数据即可快速决定聚类中心的一种密度聚类算法。该算法把所有样本数据点作为聚类中心的候选点,利用密度函数计算每个候选点的密度指标,选取其中密度指标最大的点作为聚类中心,再去掉已知选择的聚类中心,计算剩余点的密度指标,选取其中密度指标最大的点作为下一个聚类中心。不断重复上述过程,直到满足收敛条件 [ 1 ] ^{[1]} [1]。最终即可得到的已知数目的聚类中心。

具体实现流程

  • Step1:已知n个处于m维空间的数据样本点 ( x 1 , x 2 , . . . , x n ) (x_1,x_2,...,x_n) (x1,x2,...,xn),每个数据点都是候选聚类中心,定义数据点 x i x_i xi 处的密度指标为:
    D i = ∑ j = 1 n exp ⁡ ( − ∥ x i − x j ∥ 2 ( r a / 2 ) 2 ) D_i=\sum_{j=1}^n\exp(-\frac{\|x_i-x_j\|^2}{(r_a/2)^2}) Di=j=1nexp((ra/2)2xixj2)
    其中 r a r_a ra 是一个常数,一个数据点的邻近数据点越多,该数据点的密度指标越大。 r a r_a ra 也可以理解为以 x i x_i xi 数据点为中心,以 r a r_a ra 为半径的圆形区域,区域以外的数据点对该点的密度指标影响较小。

  • Step2:按照上式计算得到各个样本点的密度指标,密度指标最大的点定义为聚类中心 c k c_k ck ,其密度指标为 D c k D_{c_k} Dck 。此时 k = 1 k=1 k=1 ,那么每一个数据点 x i x_i xi 的密度指标可用以下公式进行更新:
    D i = D i − D c k exp ⁡ ( − ∥ x i − x c k ∥ 2 ( r b / 2 ) 2 ) D_i = D_i - D_{c_k}\exp{(-\frac{\|x_i-x_{c_k}\|^2}{(r_b/2)^2})} Di=DiDckexp((rb/2)2xixck2)
    其中 r b r_b rb 是一个常数。可以看出,经过更新公式重新计算密度指标后,靠近聚类中心 c k c_k ck 的数据点密度指标明显减小了,这样做的好处是可以避免其成为下一个聚类中心。 r b r_b rb 定义了一个密度指标显著减小的影响范围 [ 2 ] ^{[2]} [2]

  • Step3:根据更新修正后的样本数据点密度指标,找出最大值 D m a x = max ⁡ ( D i ) D_{max}=\max(D_i) Dmax=max(Di),选出下一个聚类中心 c k + 1 c_{k+1} ck+1,重复Step2进行更新修正。

  • Step4:不断迭代计算修正后的密度指标最大值 D m a x D_{max} Dmax ,直到满足下式:
    D m a x D c 1 < δ \frac{D_{max}}{D_{c_1}}<\delta Dc1Dmax<δ
    则迭代结束,最终聚类个数为 K = k K=k K=k 。一般取 δ ≥ 0.5 \delta\ge0.5 δ0.5 效果较好。

关于Step1和Step2中的 r a , r b r_a, r_b ra,rb 可通过如下方法进行确定:
r a = r b = 1 2 min ⁡ j { max ⁡ i ( ∥ x i − x j ∥ ) } r_a=r_b=\frac{1}{2}\min_j\{\max_i(\|x_i-x_j\|)\} ra=rb=21jmin{imax(xixj)}
其中 r a 、 r b r_a、r_b rarb 取样本集合最中间的样本到距离它最远的样本之间距离的一半 [ 3 ] ^{[3]} [3]

代码实现

为了避免太多循环操作,代码中尽量使用矩阵计算。

首先,创建CSM减法聚类方法类。

import numpy as np
import time
import matplotlib.pyplot as plt
from sklearn.metrics import pairwise_distances_argmin
from sklearn.datasets._samples_generator import make_blobs

class SCM:
    def __init__(self, r_a = None, r_b = None, delta = 0.5):
        """Subtractive Clustering Method

        :param r_a: float,初始化密度指标邻域大小
        :param r_b: float,迭代修正密度指标邻域大小
        :param delta: float,迭代停止阈值
        """
        self.r_a = r_a
        self.r_b = r_b
        self.delta = delta
        self.cluster_centers = np.array([])

    def fit(self, X):
        """聚类主函数

        :param X: NxM array,输入样本数据点,N为样本点数量,M为样本数据维数
        :return: KxM array,聚类中心点集合,K为中心点数量,M为中心点维数
        """
        # 计算欧式距离矩阵EDM(NxN)
        EDM = self.compute_squared_EDM(X)
        if not self.r_a or not self.r_b:
            # 计算r_a和r_b
            self.r_a = self.r_b = 0.5 * np.min(np.max(EDM, axis = 1))
        # 计算每个样本点的密度指标
        D = np.sum(np.exp(-1 * EDM / (0.25 * self.r_a ** 2)), axis = 1)
        # 选取最大密度指标点作为聚类中心
        self.cluster_centers = np.append(self.cluster_centers, X[np.argmax(D)]).reshape(-1, X.shape[1])
        Dc1, Dmax = np.max(D), np.max(D)
        while True:
            # 更新修正各点密度指标
            D -= Dmax * np.exp(-1 * EDM[:, np.argmax(D)] / (0.25 * self.r_b ** 2))
            Dmax = np.max(D)
            # 判断是否满足迭代结束条件
            if Dmax / Dc1 < self.delta:
                break
            # 选取最大密度指标点作为下一个聚类中心
            self.cluster_centers = np.vstack((self.cluster_centers, X[np.argmax(D)]))

    @staticmethod
    def compute_squared_EDM(X):
        # 获得矩阵都行和列,因为是行向量,因此一共有n个向量
        n, m = X.shape
        # 计算Gram 矩阵
        G = np.dot(X, X.T)
        # 因为是行向量,n是向量个数,沿y轴复制n倍,x轴复制一倍
        H = np.tile(np.diag(G), (n, 1))
        return np.sqrt(H + H.T - 2 * G)

ok,直接开始测试。测试部分代码参考了这篇文章 [ 5 ] ^{[5]} [5]

# Generate sample data
np.random.seed(0)
centers = [[1, 1], [-1, -1], [1, -1]]
X, labels_true = make_blobs(n_samples = 3000, n_features = 2, centers = centers, cluster_std = 0.5)
# plot result
fig = plt.figure(figsize = (8, 3))
fig.subplots_adjust(left = 0.02, right = 0.98, bottom = 0.05, top = 0.9)
# original data
ax = fig.add_subplot(1, 2, 1)
row, _ = np.shape(X)
for i in range(row):
    ax.plot(X[i, 0], X[i, 1], '#4EACC5', marker = '.')
ax.set_title('Original Data')
ax.set_xticks(())
ax.set_yticks(())
# compute clustering with SCM
scm = SCM()
t0 = time.time()
scm.fit(X)
t = time.time() - t0
csm_cluster_centers = np.sort(scm.cluster_centers, axis = 0)
csm_labels = pairwise_distances_argmin(X, csm_cluster_centers)
# SCM
ax = fig.add_subplot(1, 2, 2)
import matplotlib.colors as mcolors

colors = list(mcolors.TABLEAU_COLORS.keys())  # 颜色变化
for k, col in zip(range(len(csm_cluster_centers)), colors):
    my_members = csm_labels == k  # my_members是布尔型的数组(用于筛选同类的点,用不同颜色表示)
    cluster_center = csm_cluster_centers[k]
    ax.plot(X[my_members, 0], X[my_members, 1], 'w',
            markerfacecolor = col, marker = '.')  # 将同一类的点表示出来
    ax.plot(cluster_center[0], cluster_center[1], 'o', markerfacecolor = col,
            markeredgecolor = 'k', marker = 'o')  # 将聚类中心单独表示出来
ax.set_title('Subtractive Clustering')
ax.set_xticks(())
ax.set_yticks(())
plt.text(-3.5, 1.8,
             'train time: %.2fs\ndelta: %.2f\nnumber of centers: %d' % (t, scm.delta, len(scm.cluster_centers)))
    plt.show()

测试结果如下图所示。

减法聚类(Subtractive Clustering)算法实践-LMLPHP

减法聚类(Subtractive Clustering)算法实践-LMLPHP

总结

  • 欧式距离矩阵求解

    矩阵运算很好用,能避免for循环,提升运算效率。本代码中距离矩阵构建方法参见文章 [ 4 ] ^{[4]} [4]

参考

[1] 马慧,赵捧未,王婷婷. 语义减法聚类研究[J]. 计算机工程与科学,2016,38(9):1924-1929. DOI:10.3969/j.issn.1007-130X.2016.09.027.

[2] 袁银莉. 改进的模糊聚类算法[J]. 绍兴文理学院学报,2009,29(10):46-49. DOI:10.3969/j.issn.1008-293X.2009.10.012.

[3] 邵堃侠,郭卫民,杨宁,等. 基于K-means算法的RBF神经网络预测光伏电站短期出力[J]. 上海电机学院学报,2017,20(1):27-33. DOI:10.3969/j.issn.2095-0020.2017.01.006.

[4] https://blog.csdn.net/LoveCarpenter/article/details/85048291

[5] https://blog.csdn.net/qq_41938858/article/details/87738035

11-11 11:43