k-means 是硬聚类算法,它是数据点到原型的某种距离作为优化的目标函数,利用函数求极值的方法得到迭代运算的调整规则。今天是研究生生涯的开始,数据挖掘课中提到了k-means,就想自己去实现以下算法。
算法过程如下:
1)从N个点随机选取K个点作为
质心
2)对剩余的每个点
测量其到每个质心的距离
,并把它归到最近的
质心的类
3)重新计算已经得到的各个类的质心
4)迭代2~3步直至新的质心与原质心相等或
小于指定阈值
,算法结束
首先是一个test类 TestKMeans.java
import source.KMeans;
/**
* 主函数入口
* 测试集的文件名称为“testdata.txt”,其中有150*5大小的数据
* 每一行为一个样本,有5个属性(这里可以自己添加)
* 主要分为两个步骤
* 1.读取数据
* 2.进行聚类
* 最后统计运行时间和消耗的内存
* @param args
*/
public class TestKMeans {
public static void main(String[] args) {
// TODO Auto-generated method stub
//记录一下启动的时间
long startTime = System.currentTimeMillis();
KMeans cluster = new KMeans();
//读取数据
cluster.readData("/Users/yyt/Documents/workspace/K-means/testdata.txt");
cluster.cluster();
// 输出结果
cluster.printResult("clusterResult.txt");
long endTime = System.currentTimeMillis();
System.out.println("Total Time:" + (endTime - startTime) / 1000 + "s");
System.out.println("Memory Consuming:"
+ (float) (Runtime.getRuntime().totalMemory() - Runtime
.getRuntime().freeMemory()) / 1000000 + "MB");
}
}
然后就是具体的k-means的实现类了。首先先贴代码,再每个步骤每个步骤的分析。
package source;
import java.io.BufferedReader;
import java.io.BufferedWriter;
import java.io.FileNotFoundException;
import java.io.FileReader;
import java.io.FileWriter;
import java.io.IOException;
import java.util.ArrayList;
public class KMeans {
//聚类的数目
final static int ClassCount = 3;
//样本数目(测试集)
final static int InstanceNumber = 150;
//样本属性数目(测试)
final static int FieldCount = 5;
//设置异常点阈值参数(每一类初始的最小数目为InstanceNumber/ClassCount^t)
final static double t = 2.0;
//存放数据的矩阵
private float[][] data;
//每个类的均值中心
private float[][] classData;
//噪声集合索引
private ArrayList<Integer> noises;
//存放每次变换结果的矩阵
private ArrayList<ArrayList<Integer>> result;
public KMeans(){
//最后一位用来储存结果
data = new float[InstanceNumber][FieldCount+1];//150 6
classData = new float[ClassCount][FieldCount];//3 5
result = new ArrayList<ArrayList<Integer>>(ClassCount);//list 3
noises = new ArrayList<Integer>();//
}
public void readData(String TrainDataFile){
try{
FileReader fr = new FileReader(TrainDataFile);
BufferedReader br = new BufferedReader(fr);
//存放数据的临时变量
String lineData = null;
String[] splitData = null;
int line = 0;
while( br.ready()){
lineData = br.readLine();
System.out.println(lineData);
splitData = lineData.split(",");
for(int i = 0 ; i < splitData.length ;i++){
data[line][i] = Float.parseFloat(splitData[i]);
}
line++;
}
}catch(Exception e){
e.printStackTrace();
}
}
/*
* 聚类过程,主要分为两步
* 1.循环找初始点
* 2.不断调整直到分类不再发生变化
*/
public void cluster()
{
//数据归一化
normalize();
//标记是否需要重新找初始点
boolean needUpdataInitials = true;
//找初始点的迭代次数
int times = 1;
//找初始点
while(needUpdataInitials)
{
needUpdataInitials = false;
result.clear();
System.out.println("Find Initials Iteration"+(times++)+"time(s)");
//一次找初始点的尝试和根据初始点的分类
findInitials();
firstClassify();
//如果某个分类的数目小于特定的阈值,则认为这个分类中的所有样本都是噪声点
//需要重新找初始点
for(int i = 0;i < result.size();i++)
{
if(result.get(i).size() < InstanceNumber/Math.pow(ClassCount,t))
{
needUpdataInitials = true;
noises.addAll(result.get(i));
}
}
}
//找到合适的初始点后
//不断的调整均值中心和分类,直到不再发生任何变化
Adjust();
}
/*
* 对数据进行归一化
* 1.找每一个属性的最大值
* 2.对某个样本的每个属性除以其最大值
*/
private void normalize(){
//找最大值
float[] max = new float[FieldCount];
for(int i = 0;i < InstanceNumber;i++){
for(int j = 0;j < FieldCount;j++){
if(data[i][j] > max[j])
max[j] = data[i][j];
}
}
//归一化
for(int i = 0;i < InstanceNumber;i++){
for(int j = 0;j < FieldCount;j++){
data[i][j] = data[i][j]/max[j];
}
}
}
// 关于初始向量的一次找寻尝试
private void findInitials() {
// a,b为标志距离最远的两个向量的索引
int i, j, a, b;
i = j = a = b = 0;
// 最远距离
float maxDis = 0;
// 已经找到的初始点个数
int alreadyCls = 2;
// 存放已经标记为初始点的向量索引
ArrayList<Integer> initials = new ArrayList<Integer>();
// 从两个开始
for (; i < InstanceNumber; i++) {
// 噪声点
if (noises.contains(i))
continue;
// long startTime = System.currentTimeMillis();
j = i + 1;
for (; j < InstanceNumber; j++) {
// 噪声点
if (noises.contains(j))
continue;
// 找出最大的距离并记录下来
float newDis = calDis(data[i], data[j]);
if (maxDis < newDis) {
a = i;
b = j;
maxDis = newDis;
}
}
// long endTime = System.currentTimeMillis();
// System.out.println(i +
// "Vector Caculation Time:"+(endTime-startTime)+"ms");
}
// 将前两个初始点记录下来
initials.add(a);
initials.add(b);
classData[0] = data[a];
classData[1] = data[b];
// 在结果中新建存放某样本索引的对象,并把初始点添加进去
ArrayList<Integer> resultOne = new ArrayList<Integer>();
ArrayList<Integer> resultTwo = new ArrayList<Integer>();
resultOne.add(a);
resultTwo.add(b);
result.add(resultOne);
result.add(resultTwo);
// 找到剩余的几个初始点
while (alreadyCls < ClassCount) {
i = j = 0;
float maxMin = 0;
int newClass = -1;
// 找最小值中的最大值
for (; i < InstanceNumber; i++) {
float min = 0;
float newMin = 0;
// 找和已有类的最小值
if (initials.contains(i))
continue;
// 噪声点去除
if (noises.contains(i))
continue;
for (j = 0; j < alreadyCls; j++) {
newMin = calDis(data[i], classData[j]);
if (min == 0 || newMin < min)
min = newMin;
}
// 新最小距离较大
if (min > maxMin) {
maxMin = min;
newClass = i;
}
}
// 添加到均值集合和结果集合中
// System.out.println("NewClass"+newClass);
initials.add(newClass);
classData[alreadyCls++] = data[newClass];
ArrayList<Integer> rslt = new ArrayList<Integer>();
rslt.add(newClass);
result.add(rslt);
}
}
// 第一次分类
public void firstClassify() {
// 根据初始向量分类
for (int i = 0; i < InstanceNumber; i++) {
float min = 0f;
int clsId = -1;
for (int j = 0; j < classData.length; j++) {
// 欧式距离
float newMin = calDis(classData[j], data[i]);
if (clsId == -1 || newMin < min) {
clsId = j;
min = newMin;
}
}
// 本身不再添加
if (!result.get(clsId).contains(i))
result.get(clsId).add(i);
}
}
// 迭代分类,直到各个类的数据不再变化
public void Adjust() {
// 记录是否发生变化
boolean change = true;
// 循环的次数
int times = 1;
while (change) {
// 复位
change = false;
System.out.println("Adjust Iteration" + (times++) + "time(s)");
// 重新计算每个类的均值
for (int i = 0; i < ClassCount; i++) {
// 原有的数据
ArrayList<Integer> cls = result.get(i);
// 新的均值
float[] newMean = new float[FieldCount];
// 计算均值
for (Integer index : cls) {
for (int j = 0; j < FieldCount; j++)
newMean[j] += data[index][j];
}
for (int j = 0; j < FieldCount; j++)
newMean[j] /= cls.size();
if (!compareMean(newMean, classData[i])) {
classData[i] = newMean;
change = true;
}
}
// 清空之前的数据
for (ArrayList<Integer> cls : result)
cls.clear();
// 重新分配
for (int i = 0; i < InstanceNumber; i++) {
float min = 0f;
int clsId = -1;
for (int j = 0; j < classData.length; j++) {
float newMin = calDis(classData[j], data[i]);
if (clsId == -1 || newMin < min) {
clsId = j;
min = newMin;
}
}
data[i][FieldCount] = clsId;
result.get(clsId).add(i);
}
// 测试聚类效果(训练集)
// for(int i = 0;i < ClassCount;i++){
// int positives = 0;
// int negatives = 0;
// ArrayList<Integer> cls = result.get(i);
// for(Integer instance:cls)
// if (data[instance][FieldCount - 1] == 1f)
// positives ++;
// else
// negatives ++;
// System.out.println(" " + i + " Positive: " + positives +
// " Negatives: " + negatives);
// }
// System.out.println();
}
}
/**
* 计算a样本和b样本的欧式距离作为不相似度
*
* @param a
* 样本a
* @param b
* 样本b
* @return 欧式距离长度
*/
private float calDis(float[] aVector, float[] bVector) {
double dis = 0;
int i = 0;
/* 最后一个数据在训练集中为结果,所以不考虑 */
for (; i < aVector.length; i++)
dis += Math.pow(bVector[i] - aVector[i], 2);
dis = Math.pow(dis, 0.5);
return (float) dis;
}
/**
* 判断两个均值向量是否相等
*
* @param a
* 向量a
* @param b
* 向量b
* @return
*/
private boolean compareMean(float[] a, float[] b) {
if (a.length != b.length)
return false;
for (int i = 0; i < a.length; i++) {
if (a[i] > 0 && b[i] > 0 && a[i] != b[i]) {
return false;
}
}
return true;
}
/**
* 将结果输出到一个文件中
*
* @param fileName
*/
public void printResult(String fileName) {
FileWriter fw = null;
BufferedWriter bw = null;
try {
fw = new FileWriter(fileName);
bw = new BufferedWriter(fw);
// 写入文件
for (int i = 0; i < InstanceNumber; i++) {
bw.write(String.valueOf(data[i][FieldCount]).substring(0, 1));
bw.newLine();
}
// 统计每类的数目,打印到控制台
for (int i = 0; i < ClassCount; i++) {
System.out.println("第" + (i + 1) + "类数目: "
+ result.get(i).size());
}
} catch (IOException e) {
e.printStackTrace();
} finally {
// 关闭资源
if (bw != null)
try {
bw.close();
} catch (IOException e) {
e.printStackTrace();
}
if (fw != null)
try {
fw.close();
} catch (IOException e) {
e.printStackTrace();
}
}
}
}
然后进行第一次分类,理论上是可以随机选取3个点的,但是这样大大增加了复杂性,我们的方法是先计算出所有点中距离最远的两个点,这两个点分别成为2个选定的质心,然后找其他所有点距离上面的2个质点的距离,每个点选其中的一个最短距离(相当于先分成2个聚类),然后在最短中找到最大距离的那个点成为第3个质点,以后依此类推。
上面的方法就是在 findInitials()中实现的。
有了这3个点之后我们就可以进行第一次的分类了,在firstclassfy()中将每个点分到了3个聚类中。
如果某个分类的数目小于特定的阈值,则认为这个分类中的所有样本都是噪声点!!!阀值由数据总量和阈值参数决定。
找到合适的初始点后不断的调整均值中心和分类,直到不再发生任何变化。在adjust()函数中实现。
最后的结果如下: