基于用户评分Kmeans聚类的协同过滤推荐算法实现(附源代码)

本文主要是介绍基于用户评分Kmeans聚类的协同过滤推荐算法实现(附源代码),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

基于用户评分Kmeans聚类的协同过滤推荐算法实现

一:基于用户评分Kmeans聚类的协同过滤推荐算法实现步骤

1、构建用户-电影评分矩阵:

public Object readFile(String fileName){

     List<String> user = new ArrayList<String>();

     double[][] weight = new double[user_num][keyword_num];

     List<Object> obj = new ArrayList<Object>();

     try {

        File file = getFile(fileName);

        FileReader fr = new FileReader(file);

        BufferedReader br = new BufferedReader(fr);

        String line = "";

        while (br.ready()) {

          line = br.readLine();

          String[] data = line.split("   ");

          String[] str = data[1].split(";");

          user.add(data[0]);

          for (int i = 0; i < str.length; i++) {

             String[] s = str[i].split(":");

               weight[Integer.parseInt(data[0])-1][Integer.parseInt(s[0])-1] = Double.parseDouble(s[1]);

          }

        }

        obj.add(user);

        obj.add(weight);

        br.close();

     } catch (Exception e) {

        e.printStackTrace();

     }

     return obj;

}

2、根据用户评分聚类:

public class GenerateGroup implements Base{

 

   private List<User> initPlayers;//初始化,一个随机聚类中心

   private List<User> players;//每个用户实体类

   public static List<User> clusterHeart;

  

   public GenerateGroup(List<User> list) {

     players = list;

     initPlayers = new ArrayList<User>();

     clusterHeart = new ArrayList<User>();

     for (int i = 0; i < KMeans; i++) {

        initPlayers.add(players.get(i));

     }

   }

  

   public GenerateGroup(){

     super();

   }

  

   public List<User>[] cluster() {

     List<User>[] results = new ArrayList[KMeans];//存放结果

     boolean centerchange = true;

     while(centerchange){//指导聚类中心不再改变,跳出循环

        centerchange = false;

        for (int i = 0; i < KMeans; i++) {

          results[i] = new ArrayList<User>();

        } 

        for(int i=0;i<players.size();i++){//循环每个用户,找出每个用户与聚类中心的距离

          User p = players.get(i);

          double[] dists = new double[KMeans];

          for(int j=0;j<initPlayers.size();j++){

             User initP = initPlayers.get(j);

             double dist = distance(initP, p);

             dists[j] = dist;

          }

          int dist_index = computOrder(dists);//找出距离最小的用户的下标

          results[dist_index].add(p);

        }

        for(int i=0;i<KMeans;i++){//判断新旧聚类中心是否一样,不一样则创建新聚类中心

          User player_new = findNewCenter(results[i]);

          User player_old = initPlayers.get(i);

          if (!IsPlayerEqual(player_new, player_old)) {

             centerchange = true;

             initPlayers.set(i, player_new);

             clusterHeart.clear();

          }else{

             clusterHeart.add(player_new);//保存簇心

          }

        }

     }

     return results;

   }

   //比较新旧聚类中心是否相等

   public boolean IsPlayerEqual(User p1, User p2) {

     if (p1 == p2) {

        return true;

     }

     if (p1 == null || p2 == null) {

        return false;

     }

     boolean flag = true;

     double[] s1=p1.getWeights();

     double[] s2=p2.getWeights();

     for (int i = 0; i < s2.length; i++) {

        if(s1[i]!=s2[i]){

          flag = false;

          break;

        }

     }

     return flag;

    

   }

  

   //找出新的聚类中心

   public User findNewCenter(List<User> ps){

     User t = new User();

     if (ps == null || ps.size() == 0) {

        return t;

     }

     double[] ds= new double[ps.get(0).getWeights().length];

     for (int i = 0; i < ps.get(0).getWeights().length; i++) {

        for (int j = 0; j < ps.size(); j++) {

          ds[i]+= ps.get(j).getWeights()[i];

        }

     }

     for (int i = 0; i < ps.get(0).getWeights().length; i++) {

        ds[i]=ds[i]/ps.size();

     }

     t.setWeights(ds);

     return t;

   }

   //比较距离,找出最小距离下标

   public int computOrder(double[] dists) {

     double min = 0;

     int index = 0;

     for (int i = 0; i < dists.length - 1; i++) {

        double dist0 = dists[i];

        if (i == 0) {

          min = dist0;

          index = 0;

        }

        double dist1 = dists[i + 1];

        if (min > dist1) {

          min = dist1;

          index = i + 1;

        }

     }

     return index;

   }

   //判断距离,欧几里得算法,最快

   public double distance(User p0,User p1){

     double dis = 0;

     try{

        double[] s1 = p0.getWeights();

        double[] s2 = p1.getWeights();

        for (int i = 0; i < s2.length; i++) {

          dis+=Math.pow(s1[i]-s2[i],2);

        }

     }catch(Exception exception){}

     return Math.sqrt(dis);

   }

  

}

3、计算用户之间的相似度:

public double[] generateSimilarityMatrix2(String userId,List<User> list,double[][] weight){

     List<String> user = new ArrayList<String>();

     for (int i = 0; i < list.size(); i++) {

        user.add(list.get(i).getUserId());

     }

     double[] similarityMatrix = new double[user.size()];

     for (int i = 0; i < user.size(); i++) {//循环核心用户

        if(user.get(i).equals(userId)){

          similarityMatrix[i]=1;

          continue;

        }

        similarityMatrix[i] = new ComputeSimilarity().computeSimilarity(weight[user.indexOf(userId)], weight[user.indexOf(user.get(i))]);

     }

     return similarityMatrix;

}

4、获取最近邻和计算推荐结果:

public List<Object> recommendCloserAndKeyword(double[] similarityMatrix,double[][] weight,String userId,List<String> list) {

     String[] userIds = new String[list.size()];

     for(int i=0;i<list.size();i++){

        userIds[i] = list.get(i);

     }

     double[] similarity = new double[similarityMatrix.length];

     for(int i=0;i<similarity.length;i++){

        similarity[i] = similarityMatrix[i];

     }

     for(int i=0;i<similarity.length;i++){

        for(int j=0;j<similarity.length-1-i;j++){

          if(similarity[j]<similarity[j+1]){

             double temp = similarity[j];

             similarity[j] = similarity[j+1];

             similarity[j+1] = temp;

             String tag = userIds[j];

             userIds[j] = userIds[j+1];

             userIds[j+1] = tag;

          }

        }

     }

     int n = 0;

     for(int i=0;i<userIds.length;i++){

        if(similarity[i]==0.0)

          break;

        n++;

     }

     int num = n>NUM?NUM:n;

     List<Integer> list_user_temp = new ArrayList<Integer>();

     List<Double> list_simi_sum = new ArrayList<Double>();

     List<Double> list_simi_weight_sum = new ArrayList<Double>();

     for(int i=0;i<num;i++){

        for(int j=0;j<weight[Integer.parseInt(userId)-1].length;j++){

          if(weight[Integer.parseInt(userId)-1][j]==0.0&&weight[Integer.parseInt(userIds[i])-1][j]!=0.0){

             if(list_user_temp.size()==0||!list_user_temp.contains(j)){

               list_user_temp.add(j);

               list_simi_sum.add(similarity[i]);

             list_simi_weight_sum.add(similarity[i]*weight[Integer.parseInt(userIds[i])-1][j]);

             }else{

               int index = list_user_temp.indexOf(j);

               double d1 = list_simi_sum.get(index);

               double d2 = list_simi_weight_sum.get(index);

               list_simi_sum.set(index, d1+similarity[i]);

               list_simi_weight_sum.set(index, d2+similarity[i]*weight[Integer.parseInt(userIds[i])-1][j]);

             }

          }

        }

     }

     List<Double> list_result = new  ArrayList<Double>();

     for(int i=0;i<list_user_temp.size();i++){

        list_result.add(list_simi_sum.get(i)!=0.0?list_simi_weight_sum.get(i)/list_simi_sum.get(i):0);

     }

     Object[] obj = list_result.toArray();

     Object[] obj2 = list_user_temp.toArray();

     for(int i=0;i<obj.length;i++){

        for(int j=0;j<obj.length-1-i;j++){

          if((Double)obj[j]<(Double)obj[j+1]){

             Object o = obj[j];

             obj[j] = obj[j+1];

             obj[j+1] = o;

            

             o = obj2[j];

             obj2[j] = obj2[j+1];

             obj2[j+1] = o;

          }

        }

     }

     List<Object> result = new ArrayList<Object>();

     result.add(obj);

     result.add(obj2);

     result.add(similarity);

     result.add(userIds);

     result.add(num);

     return result;

}

二:推荐结果:

    1、聚类结果:

===========类别1================

1  

===========类别2================

2   95   193   288   306   404  

===========类别3================

3   11   12   13   14   15   16   17   18   19  

20   21   22   23   24   25   26   27   28   29  

30   31   32   34   35   36   37   38   39   40  

41   42   43   44   45   46   47   48   49   50  

52   53   54   55   56   57   58   59   60   61  

62   63   64   65   66   67   68   69   70   71  

72   73   74   76   77   78   79   80   81   82  

83   84   85   86   87   88   89   90   91   92  

93   94   96   97   98   100   101   102   103   104  

105   106   107   108   109   110   111   112   113   114  

115   116   117   118   119   120   121   122   123   124  

125   126   127   129   130   131   132   133   134   135  

136   138   139   140   141   142   143   144   145   146  

147   148   149   150   151   152   153   154   155   156  

157   158   159   160   161   162   163   164   165   166  

167   168   169   170   171   172   173   174   175   176  

177   178   179   180   181   182   183   184   185   186  

187   188   189   190   191   192   194   195   196   198  

199   200   201   202   203   204   205   206   207   208  

209   210   211   212   213   214   215   216   217   218  

219   220   221   222   223   224   225   226   227   228  

229   230   231   232   233   234   235   236   237   238  

239   240   241   242   243   244   245   246   247   248  

249   250   251   252   253   254   255   256   257   258  

259   260   261   262   263   264   265   266   267   268  

269   270   271   272   273   274   275   276   277   278  

279   280   281   282   283   284   285   286   287   290  

291   292   293   294   295   296   297   298   300   301  

302   303   304   305   307   308   309   310   311   312  

313   314   315   316   317   318   319   320   321   322  

323   324   325   326   327   328   329   330   331   333  

334   335   336   337   338   339   340   341   342   343  

344   345   346   347   348   349   350   351   352   353  

354   355   356   357   358   359   360   361   362   363  

364   365   366   367   368   369   370   371   372   373  

374   375   376   377   378   379   380   381   382   383  

384   385   386   387   388   389   390   391   392   393  

394   395   396   397   398   399   400   401   402   403  

405   406   407   408   409   410   411   412   413   414  

415   416   417   418   419   420   421   422   423   424  

425   426   427   428   429   430   431   432   433   434  

435   436   437   438   439   440   441   442   443   444  

445   446   447   448   449   450   451   452   453   454  

455   456   457   458   459   460   461   462   463   464  

465   466   467   468   469   470   471   472   474   475  

476   477   478   479   480   481   482   483   484   485  

486   488   489   490   491   492   493   494   495   496  

497   498   499   500  

===========类别4================

4   51   137   197  

===========类别5================

5   99   128   289   299  

===========类别6================

6   332  

===========类别7================

7  

===========类别8================

8   33   75   473   487  

===========类别9================

9  

===========类别10================

10 

2、最近邻:

===============TOP-N  10==============

478:0.3177413723944363   499:0.3156693955485105   177:0.31544323919777684   226:0.31313536250109436   22:0.3106645329420879  

342:0.31016327270390476   470:0.3099875760697812   414:0.3097300678691507   464:0.30873879229693146   143:0.3084047430145349  

3、推荐结果:

 

================推荐关键字====================

     568  预测权重:0.815     880  预测权重:0.775     350  预测权重:0.720    1399  预测权重:0.716     954  预测权重:0.626

    1386  预测权重:0.607     343  预测权重:0.575    1173  预测权重:0.559     417  预测权重:0.529    1412  预测权重:0.526

     471  预测权重:0.525    1733  预测权重:0.518    1677  预测权重:0.515     662  预测权重:0.493      73  预测权重:0.408

    1289  预测权重:0.393     282  预测权重:0.382     283  预测权重:0.330     594  预测权重:0.327     437  预测权重:0.266

      79  预测权重:0.262     761  预测权重:0.262    1322  预测权重:0.258     738  预测权重:0.251    1892  预测权重:0.247

    1787  预测权重:0.242     280  预测权重:0.238     577  预测权重:0.234    1732  预测权重:0.231     373  预测权重:0.227

    1757  预测权重:0.211     911  预测权重:0.193    1462  预测权重:0.189    1631  预测权重:0.177     843  预测权重:0.175

     129  预测权重:0.175    1526  预测权重:0.168     962  预测权重:0.160    1662  预测权重:0.158     752  预测权重:0.142

     488  预测权重:0.137     848  预测权重:0.135    1640  预测权重:0.134     631  预测权重:0.103     675  预测权重:0.103

     983  预测权重:0.090       4  预测权重:0.089     862  预测权重:0.077    1063  预测权重:0.065    1026  预测权重:0.053

     885  预测权重:0.048     719  预测权重:0.046    1539  预测权重:0.038    1361  预测权重:0.020

 

项目源代码:https://download.csdn.net/download/u011291472/11967809

 

 

这篇关于基于用户评分Kmeans聚类的协同过滤推荐算法实现(附源代码)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1028649

相关文章

不懂推荐算法也能设计推荐系统

本文以商业化应用推荐为例,告诉我们不懂推荐算法的产品,也能从产品侧出发, 设计出一款不错的推荐系统。 相信很多新手产品,看到算法二字,多是懵圈的。 什么排序算法、最短路径等都是相对传统的算法(注:传统是指科班出身的产品都会接触过)。但对于推荐算法,多数产品对着网上搜到的资源,都会无从下手。特别当某些推荐算法 和 “AI”扯上关系后,更是加大了理解的难度。 但,不了解推荐算法,就无法做推荐系

hdu1043(八数码问题,广搜 + hash(实现状态压缩) )

利用康拓展开将一个排列映射成一个自然数,然后就变成了普通的广搜题。 #include<iostream>#include<algorithm>#include<string>#include<stack>#include<queue>#include<map>#include<stdio.h>#include<stdlib.h>#include<ctype.h>#inclu

康拓展开(hash算法中会用到)

康拓展开是一个全排列到一个自然数的双射(也就是某个全排列与某个自然数一一对应) 公式: X=a[n]*(n-1)!+a[n-1]*(n-2)!+...+a[i]*(i-1)!+...+a[1]*0! 其中,a[i]为整数,并且0<=a[i]<i,1<=i<=n。(a[i]在不同应用中的含义不同); 典型应用: 计算当前排列在所有由小到大全排列中的顺序,也就是说求当前排列是第

深入探索协同过滤:从原理到推荐模块案例

文章目录 前言一、协同过滤1. 基于用户的协同过滤(UserCF)2. 基于物品的协同过滤(ItemCF)3. 相似度计算方法 二、相似度计算方法1. 欧氏距离2. 皮尔逊相关系数3. 杰卡德相似系数4. 余弦相似度 三、推荐模块案例1.基于文章的协同过滤推荐功能2.基于用户的协同过滤推荐功能 前言     在信息过载的时代,推荐系统成为连接用户与内容的桥梁。本文聚焦于

csu 1446 Problem J Modified LCS (扩展欧几里得算法的简单应用)

这是一道扩展欧几里得算法的简单应用题,这题是在湖南多校训练赛中队友ac的一道题,在比赛之后请教了队友,然后自己把它a掉 这也是自己独自做扩展欧几里得算法的题目 题意:把题意转变下就变成了:求d1*x - d2*y = f2 - f1的解,很明显用exgcd来解 下面介绍一下exgcd的一些知识点:求ax + by = c的解 一、首先求ax + by = gcd(a,b)的解 这个

综合安防管理平台LntonAIServer视频监控汇聚抖动检测算法优势

LntonAIServer视频质量诊断功能中的抖动检测是一个专门针对视频稳定性进行分析的功能。抖动通常是指视频帧之间的不必要运动,这种运动可能是由于摄像机的移动、传输中的错误或编解码问题导致的。抖动检测对于确保视频内容的平滑性和观看体验至关重要。 优势 1. 提高图像质量 - 清晰度提升:减少抖动,提高图像的清晰度和细节表现力,使得监控画面更加真实可信。 - 细节增强:在低光条件下,抖

【数据结构】——原来排序算法搞懂这些就行,轻松拿捏

前言:快速排序的实现最重要的是找基准值,下面让我们来了解如何实现找基准值 基准值的注释:在快排的过程中,每一次我们要取一个元素作为枢纽值,以这个数字来将序列划分为两部分。 在此我们采用三数取中法,也就是取左端、中间、右端三个数,然后进行排序,将中间数作为枢纽值。 快速排序实现主框架: //快速排序 void QuickSort(int* arr, int left, int rig

【C++】_list常用方法解析及模拟实现

相信自己的力量,只要对自己始终保持信心,尽自己最大努力去完成任何事,就算事情最终结果是失败了,努力了也不留遗憾。💓💓💓 目录   ✨说在前面 🍋知识点一:什么是list? •🌰1.list的定义 •🌰2.list的基本特性 •🌰3.常用接口介绍 🍋知识点二:list常用接口 •🌰1.默认成员函数 🔥构造函数(⭐) 🔥析构函数 •🌰2.list对象

【Prometheus】PromQL向量匹配实现不同标签的向量数据进行运算

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全栈,前后端开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi

让树莓派智能语音助手实现定时提醒功能

最初的时候是想直接在rasa 的chatbot上实现,因为rasa本身是带有remindschedule模块的。不过经过一番折腾后,忽然发现,chatbot上实现的定时,语音助手不一定会有响应。因为,我目前语音助手的代码设置了长时间无应答会结束对话,这样一来,chatbot定时提醒的触发就不会被语音助手获悉。那怎么让语音助手也具有定时提醒功能呢? 我最后选择的方法是用threading.Time