西电数据挖掘实验三 关联规则挖掘 投票记录

2023-11-04 03:20

本文主要是介绍西电数据挖掘实验三 关联规则挖掘 投票记录,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1.实验内容

1、数据来源

http://archive.ics.uci.edu/ml/datasets/Congressional+Voting+Records

2、使用Apriori算法,支持度设为30%,置信度为90%,挖掘高置信度的规则。

2.实验结果

频繁项集输出(条件):支持度计数

规则输出({条件}{结论}置信度)

因gh党支持规则太多这里只截取部分

则可以得到高置信度的规则

比如基于mz党反对态度的高置信度规则有

{4, 6}, {12}, 0.9172932330827067

{12, 6}, {4}, 0.991869918699187

即如果mz党派人士对于4,6议题反对,那么也有极大可能反对12议题

如果mz党派人士对于12,6议题反对,那么也有极大可能反对4议题

3.实验代码

# -*- coding: utf-8 -*-
import pandas as pd
import numpy as npdef readData():data = pd.read_csv('house-votes-84.data', header=None)data = np.array(data)return datadef preProcessing(data, vote_y_n):'''数据预处理以按 y 或 n 寻找关联规则'''data_pre = []for data_line in data:tmp_data = []for i in range(1, len(data_line)):# 从第二列开始,将数据文件中的记录与当前的选择vote_y_n进行比较,若找到了相关记录,把下标存进去if (data_line[i] == vote_y_n):tmp_data.append(i)if (tmp_data == []):continue  # 如果当前这一条记录中没有任何一个项是vote_y_n对应的选项,那么不存储空列表,直接进行下一个记录的查找data_pre.append(tmp_data)return data_predef ppreProcessing(data, vote_y_n, party):'''数据预处理以按 y 或 n 和议员所属党派来寻找关联规则'''data_pre = []for data_line in data:tmp_data = []if data_line[0] == party:for i in range(1, len(data_line)):# 从第二列开始,将数据文件中的记录与当前的选择vote_y_n进行比较,若找到了相关记录,把下标存进去if (data_line[i] == vote_y_n):tmp_data.append(i)if (tmp_data == []):continue  # 如果当前这一条记录中没有任何一个项是vote_y_n或者这条记录不是对应party的议员对应的选项,那么不存储空列表,直接进行下一个记录的查找data_pre.append(tmp_data)return data_predef rule_mining(data, support, confidence):'''挖掘关联规则'''dic_1 = mining_first(data, support, confidence)# print(dic_1)dic_2 = mining_second(data, dic_1, support, confidence)# print(dic_2)dic_before = dic_2dic_r = []dic_r.append(dic_1)# 频繁项集产生的终止条件就是不再有新的频繁项集产生为止while (dic_before != {}):# dict_r里面存储的是频繁2-项集及之后的所有频繁项集dic_r.append(dic_before)dic_3 = mining_third(data, dic_before, support, confidence)dic_before = dic_3return dic_rpassdef mining_first(data, support, confidence):'''进行第一次挖掘挖掘候选1-项集'''dic = {}count = len(data)for data_line in data:# 对于数据集中的每一行投票数据for data_item in data_line:# 对于每一行数据中的下标(对应某个议题)if (data_item in dic):# 以键值对的形式进行存储和计数dic[data_item] += 1else:dic[data_item] = 1assert (support >= 0) and (support <= 1), 'suport must be in 0-1'# 依靠给定的支持度阈值和投票数据的总数的得到满足条件的最小支持度值val_suport = int(count * support)assert (confidence >= 0) and (confidence <= 1), 'coincidence must be in 0-1'# 如果键值对中的值大于或等于当前支持度阈值,则可以将该键值对作为频繁1-项集保留dic_1 = {}for item in dic:  # 如果对每一个议题的所选定的(y|n)进行计数,若计数总值超过了支持度所需要的计数,就把它放到下一个字典中if (dic[item] >= val_suport):dic_1[item] = dic[item]return dic_1def mining_second(data, dic_before, support, confidence):'''进行关联规则的二次挖掘挖掘出候选2-项集注:所有挖掘出来的频繁项集都是以字典的形式存储的,字典的键是频繁项集,1频繁项集用1-16个整数,表示这些议题在原数据集中的下标;多频繁集就是这些下标的一个元组隐藏含义是这些议题共同被投票为vote_y_n,字典的值就是这样的组合出现的次数'''# 每一次扩展频繁项集的时候产生一个临时dict用于保存那些通过频繁项集生成算法可以留下的项集# 但是还要对其中的结果进行支持度判断,才能确定最终留下的算法dic = {}count = len(data)count2 = 0# frq_temp={}for data_line in data:# 获取元素数量count_item = len(data_line)# 每两个组合计数for i in range(0, count_item - 1):# 外层循环,控制频繁2-项集中的第一个元素的取值for j in range(i + 1, count_item):# 内层循环,控制频繁2-项集中的第二个元素的取值if (data_line[i] in dic_before and data_line[j] in dic_before):count2 += 1tmp = (data_line[i], data_line[j])# frq_temp[tmp]=0if (tmp in dic):# 上同,使用键值对集合计数,只不过此时元素是二元的元组dic[tmp] += 1else:dic[tmp] = 1else:continue# 当两个项中有一个不是频繁1-项集,根据剪枝策略,这样组成的项不是频繁2-项集# print(dic)assert (support >= 0) and (support <= 1), 'suport must be in 0-1'assert (confidence >= 0) and (confidence <= 1), 'confidence must be in 0-1'dic_2 = {}# for item in dic:#    for data_line in data:#        tmp=item#        tmp1=data_line#        if(set(tmp).issubset(set(tmp1))):#            frq_temp[item]+=1for item in dic:count_item0 = dic_before[item[0]]count_item1 = dic_before[item[1]]# 判断 支持度 和 置信度# 判断置信度的时候对于一个无序的元组,任何一种方向的规则都有可能,都要进行比较if (dic[item] >= support * count):# and#    (dic[item] >= confidence *frq_temp[item])):dic_2[item] = dic[item]return dic_2def mining_third(data, dic_before, support, confidence):'''进行关联规则的三次挖掘挖掘出候选3-项集或者4-项集乃至n-项集'''# 频繁项集的产生使用Fk-1*Fk-1的策略frq_temp = {}dic_3 = {}for item0 in dic_before:# 外层循环控制频繁k-1项集中的某一项for item1 in dic_before:# 内层循环控制频繁k-1项集中的另一项if (item0 != item1):# print(item0,item1)item_len = len(item0)equal = Truetmp_item3 = []# 判断前n-1项是否一致for i in range(item_len - 1):tmp_item3.append(item0[i])if (item0[i] != item1[i]):equal = Falsebreakif (equal == True):# 如果两个Fk-1项具有k-2个公共前缀,那么就按照顺序,将其组合起来minitem = min(item0[-1], item1[-1])maxitem = max(item0[-1], item1[-1])tmp_item3.append(minitem)tmp_item3.append(maxitem)tmp_item3 = tuple(tmp_item3)frq_temp[tmp_item3] = 0dic_3[tmp_item3] = 0else:continue# print('dic_3:',dic_3)# 暴力统计支持度的方法,对于每一个数据项,看每个新找到的k项集是否包含在数据项中# 比较的方法,是对项的每一位进行判断,看这一位是否在数据项中for data_line in data:for item in dic_3:is_in = Truefor i in range(len(item)):if (item[i] not in data_line):is_in = False# 该候选k项集中的所有项都在数据项中,则可以将该项保留if (is_in == True):dic_3[item] += 1assert (support >= 0) and (support <= 1), 'suport must be in 0-1'assert (confidence >= 0) and (confidence <= 1), 'coincidence must be in 0-1'count = len(data)dic_3n = {}for item in dic_3:# 前一项的支持度计数,就是现在的项除去末尾的数字,通过键值对在原来的字典中查询的值count_item0 = dic_before[item[:-1]]# 判断 支持度 和 置信度if (dic_3[item] >= support * count):# and (dic_3[item] >= confidence * count_item0)):dic_3n[item] = dic_3[item]return dic_3ndef association_rules(freq_sets, min_conf):'''根据产生的频繁项集生成满足置信度要求的规则:param dict: 频繁项集的字典:param dict: 频繁项集字典中的频繁项集列表:param min_conf: 最小置信度:return: 规则列表'''rules = []max_len = len(freq_sets)for k in range(max_len - 1):for freq_set in freq_sets[k]:for i in range(k + 1, max_len):for sub_set in freq_sets[i]:if isinstance(freq_set, int):if freq_set in sub_set:conf = freq_sets[i][sub_set] / freq_sets[k][freq_set]b = list(sub_set)b.remove(freq_set)b = set(b)a = set()a.add(freq_set)rule = (a, b, conf)if conf >= min_conf:rules.append(rule)elif set(freq_set).issubset(set(sub_set)):conf = freq_sets[i][sub_set] / freq_sets[k][freq_set]rule = (set(freq_set), set(sub_set) - set(freq_set), conf)if conf >= min_conf:rules.append(rule)return rulesif (__name__ == '__main__'):data_row = readData()data_y = preProcessing(data_row, 'y')data_n = preProcessing(data_row, 'n')data_y_republican = ppreProcessing(data_row, 'y', 'republican')data_y_democrat = ppreProcessing(data_row, 'y', 'democrat')data_n_republican = ppreProcessing(data_row, 'n', 'republican')data_n_democrat = ppreProcessing(data_row, 'n', 'democrat')# 支持度support = 0.3# 置信度confidence = 0.9# 总的y规则与两个党派的y规则r_y = rule_mining(data_y, support, confidence)print('基于支持态度的全部频繁项集:\n', r_y)rule_y = association_rules(r_y, confidence)print('基于支持态度的规则:\n', rule_y)r_y_republican = rule_mining(data_y_republican, support, confidence)print('基于gh党支持态度的频繁项集:\n', r_y_republican)rule_y_republican = association_rules(r_y_republican, confidence)print('基于gh党支持态度的规则数:\n', len(rule_y_republican))print('基于gh党支持态度的规则:\n', rule_y_republican)r_y_democrat = rule_mining(data_y_democrat, support, confidence)print('基于mz党支持态度的频繁项集:\n', r_y_democrat)rule_y_democrat = association_rules(r_y_democrat, confidence)print('基于mz党支持态度的规则数:\n', len(rule_y_democrat))print('基于mz党支持态度的规则:\n', rule_y_democrat)# 总的n规则与两个党派的n规则r_n = rule_mining(data_n, support, confidence)print('基于反对态度的全部频繁项集:\n', r_n)rule_n = association_rules(r_n, confidence)print('基于反对态度的规则:\n', rule_n)r_n_republican = rule_mining(data_n_republican, support, confidence)print('基于gh党反对态度的频繁项集:\n', r_n_republican)rule_n_republican = association_rules(r_n_republican, confidence)print('基于gh党反对态度的规则数:\n', len(rule_n_republican))print('基于gh党反对态度的规则:\n', rule_n_republican)r_n_democrat = rule_mining(data_n_democrat, support, confidence)print('基于mz党反对态度的频繁项集和规则:\n', r_n_democrat)rule_n_democrat = association_rules(r_n_democrat, confidence)print('基于mz党反对态度的规则数:\n', len(rule_n_democrat))print('基于mz党反对态度的规则:\n', rule_n_democrat)

这篇关于西电数据挖掘实验三 关联规则挖掘 投票记录的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/342858

相关文章

在Spring Boot中集成RabbitMQ的实战记录

《在SpringBoot中集成RabbitMQ的实战记录》本文介绍SpringBoot集成RabbitMQ的步骤,涵盖配置连接、消息发送与接收,并对比两种定义Exchange与队列的方式:手动声明(... 目录前言准备工作1. 安装 RabbitMQ2. 消息发送者(Producer)配置1. 创建 Spr

解析C++11 static_assert及与Boost库的关联从入门到精通

《解析C++11static_assert及与Boost库的关联从入门到精通》static_assert是C++中强大的编译时验证工具,它能够在编译阶段拦截不符合预期的类型或值,增强代码的健壮性,通... 目录一、背景知识:传统断言方法的局限性1.1 assert宏1.2 #error指令1.3 第三方解决

Redis分片集群、数据读写规则问题小结

《Redis分片集群、数据读写规则问题小结》本文介绍了Redis分片集群的原理,通过数据分片和哈希槽机制解决单机内存限制与写瓶颈问题,实现分布式存储和高并发处理,但存在通信开销大、维护复杂及对事务支持... 目录一、分片集群解android决的问题二、分片集群图解 分片集群特征如何解决的上述问题?(与哨兵模

k8s上运行的mysql、mariadb数据库的备份记录(支持x86和arm两种架构)

《k8s上运行的mysql、mariadb数据库的备份记录(支持x86和arm两种架构)》本文记录在K8s上运行的MySQL/MariaDB备份方案,通过工具容器执行mysqldump,结合定时任务实... 目录前言一、获取需要备份的数据库的信息二、备份步骤1.准备工作(X86)1.准备工作(arm)2.手

SpringBoot3应用中集成和使用Spring Retry的实践记录

《SpringBoot3应用中集成和使用SpringRetry的实践记录》SpringRetry为SpringBoot3提供重试机制,支持注解和编程式两种方式,可配置重试策略与监听器,适用于临时性故... 目录1. 简介2. 环境准备3. 使用方式3.1 注解方式 基础使用自定义重试策略失败恢复机制注意事项

Python UV安装、升级、卸载详细步骤记录

《PythonUV安装、升级、卸载详细步骤记录》:本文主要介绍PythonUV安装、升级、卸载的详细步骤,uv是Astral推出的下一代Python包与项目管理器,主打单一可执行文件、极致性能... 目录安装检查升级设置自动补全卸载UV 命令总结 官方文档详见:https://docs.astral.sh/

统一返回JsonResult踩坑的记录

《统一返回JsonResult踩坑的记录》:本文主要介绍统一返回JsonResult踩坑的记录,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录统一返回jsonResult踩坑定义了一个统一返回类在使用时,JsonResult没有get/set方法时响应总结统一返回

C++作用域和标识符查找规则详解

《C++作用域和标识符查找规则详解》在C++中,作用域(Scope)和标识符查找(IdentifierLookup)是理解代码行为的重要概念,本文将详细介绍这些规则,并通过实例来说明它们的工作原理,需... 目录作用域标识符查找规则1. 普通查找(Ordinary Lookup)2. 限定查找(Qualif

Go学习记录之runtime包深入解析

《Go学习记录之runtime包深入解析》Go语言runtime包管理运行时环境,涵盖goroutine调度、内存分配、垃圾回收、类型信息等核心功能,:本文主要介绍Go学习记录之runtime包的... 目录前言:一、runtime包内容学习1、作用:① Goroutine和并发控制:② 垃圾回收:③ 栈和

java对接海康摄像头的完整步骤记录

《java对接海康摄像头的完整步骤记录》在Java中调用海康威视摄像头通常需要使用海康威视提供的SDK,下面这篇文章主要给大家介绍了关于java对接海康摄像头的完整步骤,文中通过代码介绍的非常详细,需... 目录一、开发环境准备二、实现Java调用设备接口(一)加载动态链接库(二)结构体、接口重定义1.类型