看书标记——R语言
- Chapter 1 模式的数据挖掘
- 1.1 聚类分析
- 1.1.1 k-means聚类
- 用法
- 示例
- 1.1.2 k-medoids聚类
- 用法
- 示例
- 1.1.3 分层聚类
- 用法
- 示例
- 1.1.4 期望最大化(EM)
- 用法
- 示例
- 1.1.5 密度估计
- 用法
- 示例
- 1.2 异常检测
- 1.2.1 显示异常值
- 示例 1
- 示例 2
- 示例 3
- 1.2.2 计算异常值
- 示例 1(用name函数创建异常)
- 示例 2(DMwR中的lofactor函数)
- 1.3 关联规则(购物篮分析)
- 用法
- 示例
【数据科学:R语言实战 1】
Chapter 1 模式的数据挖掘
1.1 聚类分析
1.1.1 k-means聚类
步骤:
(1)从数据中选取k随机行(质心)
(2)使用Lloyd’s算法确定集群
(3)与质心的距离对每个数据点进行分配
(4)将质心重新用与其相关的所有点的平均值代替
(5)对与质心距离最近的数据重新分配
(6)循坏3、4,直到数据不再分配
第三步表示k-means无法与相当稀疏的数据或者有较多异常值的数据一起工作,另外,集群最好有线性形状。
用法
kmeans()
- 参数
x 待分析的数据矩阵
centers 集群数量
iter.max 最大迭代次数
nstart 随机集的使用次数
algorithm 算法Hartigan-Wong、Lloyd、Forgy、MacQueen.
trace跟踪信息 - 属性
cluster集群分配
centers集群中心
totss总平方和
withinss每个聚类平方和的向量
tot.withinss距离平方和总量
betweenss聚类组间平方和
size每个聚类的数据点数量
iter执行迭代的次数
ault专家诊断
示例
x <- rbind(matrix(rnorm(100, sd = 0.3), ncol = 2),matrix(rnorm(100, mean = 1, sd = 0.3), ncol = 2))
x
fit <- kmeans(x,10)
fit
#碎石图选集群数
results <-matrix(nrow=14,ncol=2,dimnames=list(2:15,c("clusters","sumsquares")))
for(1 in 2:15){
fit<-kmeans(x,i)
results[i-1,1]<-i
results[i-1,2]<-fit$totss
}
plot(results)
cluster means用于集群分配的平均值的分解
cluster vector将100个数分配的集群
cluster sum of squares总平方和94.6%是拟合度的表现。
1.1.2 k-medoids聚类
用法
pam()
- 参数
x 待分析的数据矩阵(基于diss标记)
k 集群数量
diss FALSE(x是矩阵),TRUE(x是相异度矩阵)
metric euclidean(欧几里得)、manhattan(曼哈顿距离)
medoids 如果分配到了NULL,就需要开发一组medoids,否则,这是一组初步medoids.
stand 使用x的度量标准化
cluster.only TRUE返回聚类
do.swap 0、1是否进行交换
keep.diss 0、1是否保存相异点在结果中
keep.data 0、1是否保留数据在结果中
trace.lev 跟踪级别,0表示无跟踪信息
示例
medoids.csv数据
library(cluster)
x <- read.table(“medoids.csv”, header=TRUE, sep=",")
result <- pam(x, 2, FALSE, "euclidean") ##medoids函数
result
summary(result)
plot(result$data, col = result$clustering)
medoids指定使用第3行和第6行
clustering vector聚集群
objective function展示构建阶段和交换阶段的函数值
1.1.3 分层聚类
聚合法和分裂法
用法
hclust()
- 参数
d 矩阵
method 附聚法,“ward.D/ward.D2/single/complete/average/mcquitty/median/centroid”
示例
dat <- matrix(rnorm(100), nrow=10, ncol=10) #以正态数据为例
dat
hc <- hclust(dist(dat));hc
plot(hc)
1.1.4 期望最大化(EM)
mclust函数包里的Mclust函数(基于模型的聚类、分类、密度估计、贝叶斯正则化等,通过EM算法拟合正态混合模型)
用法
Mclust
- 参数
data 矩阵
G 使用的集群数量的向量,用于BIC,默认值为1:9
modelNames 使用的模型名称的向量。当Mclust函数试图决定哪个项目属于某一集群时,函数就会使用模。单变量混合、多变量混合、单一分量数据集有不同的模型名称。(E:等方差;V:变量方差.)
prior 平均值的可选共轭先验
control EM 的控制参数列表,默认为List
示例
install.packages(“mclust”)
library(mclust)
data <- read.csv("http://archive.ics.uci.edu/ml/machine-learning-databases/iris/iris.data") ##iris数据
fit <- Mclust(data) ##用EM计算最优匹配
fit
summary(fit)
plot(fit)
log.likelihood:BIC数值的对数似然值
n:数据量
df:自由度
BIC:最优贝叶斯信息准则
ICL:集成完全数据似然值(ICL与BIC相同,即可对数据点进行分类)
plot中有四类图
- 用于选择集群数量的BIC数值:用不同的模型表现BIC的情况,多变量实例中,最不适合使用VEV模型。
- 有关聚类的图:选取提供数据最优聚类的分量(x5.1和x1.4会产生距离最近的集群)。
- 有关分类不确定性的图:不同选择对聚类迭代的影响。
- 有关集群的轨道图:每个集群的轨道图,突出显示中心点可能会出现在哪个地方。
1.1.5 密度估计
density(密度估计)、DBSCAN(确定固定点集群的聚类)、OPTICS(确定广泛分布集群的聚类)函数
用法
density()
- 参数
x 矩阵
bw 使用的平滑带宽
adjust 倍增器,用于调节带宽
kernel 平滑核心(gaussian、rectangle、trianglar、epanechnikov、biweight、cosine、optcosine)
weights 与x长度一致的权向量
give.Rkern TRUE表示未预估参数
N 预估的密度点数
from,to 最左边点和最右边点
na.rm TRUE 表示移除缺失值
bw.nrd0(x)/bw.nrd(x)/bw.ucv(x)/bw.bcv(x)/bw.SJ(x)
示例
data <- read.csv("http://archive.ics.uci.edu/ml/machine-learning-databases/iris/iris.data")
#计算X5.1的密度
d <- density(data$X5.1)
d
plot(d)
1.2 异常检测
统计测试,基于深度、偏差、距离、密度的方法,高维方法。
1.2.1 显示异常值
示例 1
identify(in boxplot) #identify函数便于标记散点图的点,boxplot生成盒须图
---------------------------------------------------------------------
y <- rnorm(100)
boxplot(y)
identify(rep(1, length(y)), y, labels = seq_along(y))
示例 2
boxplot函数会自动计算数据集的异常值
x <- rnorm(100)
summary(x)
boxplot.stats(x)$out ##显示异常值
boxplot(x)
boxplot(mpg~cyl,data=mtcars, xlab="Cylinders", ylab="MPG") ##汽车的数据示例
示例 3
二维的箱线图异常检测(并集而非交集)
x <- rnorm(1000);y <- rnorm(1000)
f <- data.frame(x,y)
a <- boxplot.stats(x)$out;b <- boxplot.stats(y)$out
list <- union(a,b)
plot(f)
px <- f[f$x %in% a,];py <- f[f$y %in% b,]
p <- rbind(px,py)
par(new=TRUE)
plot(p$x, p$y,cex=2,col=2)
#结果并不准确,需结合实际
1.2.2 计算异常值
示例 1(用name函数创建异常)
data <- read.csv("http://archive.ics.uci.edu/ml/machine-learning-databases/iris/iris.data")
outliers <- function(data, low, high) {
outs <- subset(data, data$X5.1 < low | data$X5.1 > high)
return(outs)
}
outliers(data, 4.5, 7.5) ## <4.5,>7.5为异常
示例 2(DMwR中的lofactor函数)
install.packages(“DMwR”)
library(DMwR)
nospecies <- data[,1:4] ##移除“种类”列
scores <- lofactor(nospecies, k=3) #确定异常值
plot(density(scores)) #画出异常值分布
1.3 关联规则(购物篮分析)
apriori()
用法
- 参数
data 事务数据
parameter 默认支持度0.1、置信度0.8、最大长度10
appearance 用于限制规则中出现的项目
control 用于调整所用算法的性能
示例
install.packages("arules")
library(arules)
data <- read.csv("http://www.salemmarafi.com/wp-ontent/uploads/2014/03/groceries.csv")
rules <- apriori(data) ;rules #生成规则
##置信度默认为0.8,三个项目中有15295个事务,有五个规则
inspect(rules)
rules <- apriori(data, parameter = list(supp = 0.001, conf = 0.8)) #当参数修改后,生成500多个规则,但是置信度为0.001