社区
数据仓库
帖子详情
k中心 聚类算法
wdwoody
2008-05-29 01:09:10
最近做数据挖掘的项目,不太会,有一步要用聚类分析!通过分析想用k中心点算法,谁有java的关于k中心点算法的源码麻烦发一个.
邮箱为:wdwoody@163.com
如果可能的话最好是:
输入:k的值
输出:聚类的结果
数据格式为:在SQL中存储的表
UID 页面1访问次数 页面2访问次数 页面3访问次数 页面4访问次数 ...
1 5 6 2 1
2 10 2 4 1
3 9 1 5 8
4 3 2 1 1
...
数据量与维数不太大
谢谢DX们了
...全文
2296
10
打赏
收藏
k中心 聚类算法
最近做数据挖掘的项目,不太会,有一步要用聚类分析!通过分析想用k中心点算法,谁有java的关于k中心点算法的源码麻烦发一个. 邮箱为:wdwoody@163.com 如果可能的话最好是: 输入:k的值 输出:聚类的结果 数据格式为:在SQL中存储的表 UID 页面1访问次数 页面2访问次数 页面3访问次数 页面4访问次数 ... 1 5 6 2 1 2 10 2 4 1 3 9 1 5 8 4 3 2 1 1 ... 数据量与维数不太大 谢谢DX们了
复制链接
扫一扫
分享
转发到动态
举报
写回复
配置赞助广告
用AI写文章
10 条
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
lixiaolicauc
2009-09-19
打赏
举报
回复
学习学习
2021‘someday
2008-10-07
打赏
举报
回复
up
JavaPeak
2008-09-20
打赏
举报
回复
学习了
华芸智森
2008-09-16
打赏
举报
回复
这类算法,MATLAB最多,最近计划做一个COM+,看能不能将MATLAB与数据库,仓库联系起来.
haimeimei
2008-09-16
打赏
举报
回复
像聚类就有K均值、层次聚类、DBSCAN、EM算法
xiaoli007007
2008-06-10
打赏
举报
回复
而且楼主的数据如果存在数据库里面的话,
不管是SQL SERVER 2005、ORACLE、IBM DB2、TERADATA都有
相应的数据挖掘组件,K均值聚类法肯定是有的。
我这里只有K均值聚类的MATLAB和C的代码。
如果是专门研究JAVA的,最好还是熟悉一下WEKA,
里面的算法非常丰富,像聚类就有K均值、层次聚类、DBSCAN、EM算法
基于密度和基于图的聚类算法。
有什么需要或者不懂的楼主可以联系我,
曾经做过移动和电信的数据挖掘项目,大家可以一起探讨
在BI中怎么运用数据挖掘,最近比较迷茫中
xiaoli007007
2008-06-10
打赏
举报
回复
知道WEKA吗?底层的代码就是JAVA的,当然还是调用了很多WEKA
的基础类和方法,但是楼主可以通过看代码自己实现,应该不会很难。
而且也可以直接拿来用,WEKA可以通过JDBC直接连接数据库,
当然也可以把数据库文件导出再改成WEKA标准格式导入WEKA
相关的资料和链接我就不说了,网上一搜一大把,呵呵。
newqq
2008-06-04
打赏
举报
回复
学习
wdwoody
2008-05-30
打赏
举报
回复
有没有别的资料!这个我已经看过了!谢谢
DiligencyMan
2008-05-29
打赏
举报
回复
从网上找到了很多定义,这里选取比较典型的几个;
K-Mean 分群法是一种分割式分群方法,其主要目标是要在大量高纬的资料点中找出 具有代表性的资料点;这些资料点可以称为群中心,代表点;然后再根据这些 群中心,进行后续的处理,这些处理可以包含
1 )资料压缩:以少数的资料点来代表大量的资料,达到资料压缩的功能;
2 )资料分类:以少数代表点来代表特点类别的资料,可以降低资料量及计算量;
分割式分群法的目的是希望盡量減小每個群聚中,每一點與群中心的距離平方差(square error)。
假設我們現在有一組包含c個群聚的資料,其中第 k 個群聚可以用集合 Gk來表示,假設 Gk包含nk筆
資料 {x1, x2, …, xnk),此群聚中心為yk,則該群聚的平方差 ek可以定義為:
ek = S i |xi-yk|2 ,其中 xi是屬於第 k 群的資料點。
而這c個群聚的總和平方差E便是每個群聚的平方差總和:
E = S k=1~c ek
我們分群的方法,就變成是一個最佳化的問題,換句話說,我們要如何選取 c 個群聚以及相關的群中心,
使得 E 的值為最小。
2 .处理流程
( 1 ) 从 c 个数据对象任意选择 k 个对象作为初始聚类中心; ( 2 ) 循环( 3 )到( 4 )直到每个聚类不再发生变化为止; ( 3 ) 根据每个聚类对象的均值(中心对象),计算每个对象与这些中心对象的距离;并根据最小距离重新对相应对象进行划分; ( 4 ) 重新计算每个(有变化)聚类的均值(中心对象)
3. java 算法的实现说明
1) 假设给点一组 c 点资料 X = {x1, ..., xc} ,每一点都有 d 维;给定一个群聚的数目 k, 求其
最好的聚类结果。
2 ) BasicKMeans.java 主类
int coordCount = 250;// 原始的资料个树
int dimensions = 100;// 每个资料的纬度数目
double[][] coordinates = new double[coordCount][dimensions];
这里假设 c 点资料为 coordinates 对象,其中 c 为 coordCount,d 为 dimensions 相应值。
int mk = 30; // 想要群聚的数目
根据群聚数目定义 mk 个群聚类对象
mProtoClusters = new ProtoCluster[mK];// 见 ProtoCluster 类说明
// 首先随机选取 mk 个原始资料点作为群聚类
mProtoClusters[i]= new ProtoCluster (coordinates[j] );//i 依此为 0 到 mk 的值; j 为 0 到 coordCount 的值
定义一个变量用于记录和跟踪每个资料点属于哪个群聚类
mClusterAssignments = new int[coordCount];
mClusterAssignments[j]=i;// 表示第 j 个资料点对象属于第 i 个群聚类
// 开始循环
* // 依次调用计算每个群聚类的均值
mProtoClusters[i].updateCenter(mCoordinates);// 计算第 i 个聚类对象的均值
* // 依次计算每个资料点到中心点的距离,然后根据最小值划分到相应的群集类中;
采用距离平方差来表示资料点到中心点的距离;
//定义一个变量,来表示资料点到中心点的距离
mDistanceCache = new double[coordCount ][mk];
//其中mDistanceCache[i][j]表示第i个资料点到第j个群聚对象中心点的距离;
//距离算法描述():
a)依次取出每个资料点对象double[] coord = coordinates[i];
b)再依次取出每个群聚类中的中心点对象double[] center = mProtoClusters[j].mCenter;
c)计算coord对象与center对象之间的距离
double distance(double[] coord, double[] center) {
int len = coord.length;
double sumSquared = 0.0;
for (int i=0; i<len; i++) {
double v = coord[i] - center[i];
sumSquared += v*v; //平方差
}
return Math.sqrt(sumSquared);
}
d)循环执行上面的流程,把结果记录在mDistanceCache[i][j]中;
* //比较出最小距离,然后根据最小距离重新对相应对象进行划分
依次比较每个资料点的 最短中心距离,
int nearestCluster(int ndx) {
int nearest = -1;
double min = Double.MAX_VALUE;
for (int c = 0; c < mK; c++) {
double d = mDistanceCache[ndx][c];
if (d < min) {
min = d;
nearest = c;
}
}
return nearest;
}
该方法返回该资料点对应的最短中心距离的群聚类的索引值;
比较每个 nearestCluster[coordCount] 的值和mClusterAssignments[coordCount]
的值是否相等,如果全相等表示所有的点已经是最佳距离了,直接返回;
否则需要重新调整资料点和群聚类的关系,调整完毕后再重新开始循环;
调整时需要更新下列数据:
a)更新mProtoClusters[i]中的mCurrentMembership集合;
b)更新mClusterAssignments[i]中对应的值;
然后重行开始循环
3 ) ProtoCluster.java 是一个包含代表点的群聚类,该类有两个最主要的属性"代表点"和"群中心";
int[] mCurrentMembership;// 用于表示每个群聚包含的数据资料点集合
double[] mCenter;// 用于表示每个聚类对象的均值,也就是中心对象
void updateCenter(double[][] coordinates) {
// 该方法计算 聚类对象的均值 ;
// 根据 mCurrentMembership 取得原始资料点对象 coord ,该对象是 coordinates 的一个子集;然后取出该子集的均值;
取均值的算法很简单,可以把 coordinates 想象成一个 m*n 的距阵 , 每个均值就是每个纵向列的取和平均值 , 该值保
存在 mCenter 中
for (int i=0; i< mCurrentMembership.length; i++) {
double[] coord = coordinates[mCurrentMembership[i]];
for (int j=0; j<coord.length; j++) {
mCenter[j] += coord[j];// 得到每个纵向列的和;
}
f or (int i=0; i<mCenter.length; i++) {
mCenter[i] /= mCurrentSize; // 对每个纵向列取平均值
}
}
机器学习案例实战篇
机器学习案例实战篇,选取机器学习开发中最具代表性的经典学习案例,透彻讲解机器学习数据预处理,简单线性回归、多元线性回归、多项式回归、支持向量回归、决策树回归、随机森林回归等回归算法,逻辑回归、k近邻算法、支持向量机、朴素贝叶斯算法、决策树分类、随机森林分类等分类算法,k均值聚类、层次聚类等
聚类算法
,以及关联分析算法,并分别对回归模型、分类模型进行性能评估。
K-
中心
点
聚类算法
(K-Medoide)
K-
中心
点算法也是一种常用的
聚类算法
,K-
中心
点聚类的基本思想和K-Means的思想相同,实质上是对K-means算法的优化和改进。在K-means中,异常数据对其的算法过程会有较大的影响。在K-means算法执行过程中,可以通过随机的方式选择初始质心,也只有初始时通过随机方式产生的质心才是实际需要聚簇集合的
中心
点,而后面通过不断迭代产生的新的质心很可能并不是在聚簇中的点。如果某些异常点距离质心相
K-medoids
中心
聚类算法
K-medoids
中心
聚类算法
K-medoids
聚类算法
的基本思想K-medoids算法步骤实验源码结果展示 Medoid在英文中的意思为“
中心
点” 所以,K-Medoids算法又叫K-
中心
点
聚类算法
与K-means有所不同的是:K-medoids算法不采用簇中对象的平均值作为参照点,而是选用簇中位置最
中心
的对象,即
中心
点作为参照点 那么问题来了,该怎么找聚类对象中的代表对象,也就是
中心
点呢? 首先为每个簇随意选择一个代表对象,剩余的对象根据其与代表对象的距离分配给最近的一个簇;然后反复地用非代表对象的距
K-means
聚类算法
原理及python实现
文章目录一.
聚类算法
二.K-means
聚类算法
三.K-means算法步骤详解Step1.K值的选择Step2.距离度量2.1.欧式距离2.2.曼哈顿距离2.3.余弦相似度Step3.新质心的计算Step4.是否停止K-means四.K-means算法代码实现1.其伪代码如下2.python实现五.K-means算法补充六.小结 一.
聚类算法
&nbs...
机器学习之K均值
聚类算法
机器学习之K均值
聚类算法
K均值
聚类算法
介绍K均值
聚类算法
的实现2分-K均值
聚类算法
2分-K均值
聚类算法
的实现 K均值
聚类算法
介绍 我们来介绍K均值
聚类算法
,首先读者要知道,聚类是一类无监督的学习,它将相似的对象归到同一个簇中。簇内的数据越相似,则聚类效果越好。无监督学习是指没有事先标记好训练集的类型。聚类和分类都是对记录进行分组;但分类则有预先定义的类别。 K均值
聚类算法
其实很简单,就如上图所述,我们紧接着就引出K均值聚类的算法。 K均值
聚类算法
的优点就是算法简单,读者在上面也看到了;而它的缺点是:可能
数据仓库
7,388
社区成员
6,742
社区内容
发帖
与我相关
我的任务
数据仓库
其他数据库开发 数据仓库
复制链接
扫一扫
分享
社区描述
其他数据库开发 数据仓库
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
暂无公告
试试用AI创作助手写篇文章吧
+ 用AI写文章