FP-Growth 算法实现:分析韩国自行车租赁数据
由于 FP-Growth 算法需要对数据进行预处理,并且涉及到频繁模式挖掘的相关概念,因此在实现之前需要对相关概念进行了解和理解。
频繁模式挖掘是一种在大规模数据集中发现重要模式的技术,其中频繁项集是指在数据集中经常同时出现的项的集合。FP-Growth 算法是一种频繁模式挖掘算法,它能够高效地处理大规模数据集,并找到其中的频繁项集。该算法的核心思想是利用 FP 树(一种特殊的数据结构)来表示数据集,然后通过挖掘 FP 树的频繁模式来发现数据集中的频繁项集。
下面是 FP-Growth 算法对于韩国自行车租用数据的实现:
首先,需要对数据进行预处理,将每个交易(即每次租用自行车)转换为一个项集。这里假设数据已经预处理好,每个交易表示为一个含有多个项的列表。
然后,需要构建 FP 树。FP 树的构建过程分为两步:首先遍历数据集,统计每个项的出现次数,并将其保存在一个项头表中;然后再次遍历数据集,利用项头表和一个空的根节点来构建 FP 树。
接下来,需要对 FP 树进行挖掘,找出其中的频繁项集。挖掘过程分为两步:首先从项头表中选择一个频繁项作为条件模式基,然后递归地构建条件 FP 树,并从中找出频繁项集;然后继续选择下一个频繁项,直到所有的频繁项都被挖掘为止。
具体的 Python 实现代码如下:
# 定义节点类
class TreeNode:
def __init__(self, name, count, parent):
self.name = name
self.count = count
self.parent = parent
self.children = {}
self.next = None
def increment(self, count):
self.count += count
def display(self, ind=1):
print(' '*ind, self.name, ':', self.count)
for child in self.children.values():
child.display(ind+1)
# 构建 FP 树
def create_tree(dataset, min_support):
header_table = {} # 项头表
for trans in dataset:
for item in trans:
header_table[item] = header_table.get(item, 0) + dataset[trans]
for k in list(header_table.keys()):
if header_table[k] < min_support:
del(header_table[k])
freq_item_set = set(header_table.keys())
if len(freq_item_set) == 0:
return None, None
for k in header_table:
header_table[k] = [header_table[k], None]
root_node = TreeNode('Null Set', 1, None)
for trans, count in dataset.items():
local_D = {}
for item in trans:
if item in freq_item_set:
local_D[item] = header_table[item][0]
if len(local_D) > 0:
ordered_items = [v[0] for v in sorted(local_D.items(), key=lambda p: p[1], reverse=True)]
update_tree(ordered_items, root_node, header_table, count)
return root_node, header_table
# 更新 FP 树
def update_tree(items, root_node, header_table, count):
if items[0] in root_node.children:
root_node.children[items[0]].increment(count)
else:
root_node.children[items[0]] = TreeNode(items[0], count, root_node)
if header_table[items[0]][1] is None:
header_table[items[0]][1] = root_node.children[items[0]]
else:
update_header(header_table[items[0]][1], root_node.children[items[0]])
if len(items) > 1:
update_tree(items[1:], root_node.children[items[0]], header_table, count)
# 更新项头表
def update_header(node_to_test, target_node):
while node_to_test.next is not None:
node_to_test = node_to_test.next
node_to_test.next = target_node
# 构建条件模式基
def ascend_tree(leaf_node, prefix_path):
if leaf_node.parent is not None:
prefix_path.append(leaf_node.name)
ascend_tree(leaf_node.parent, prefix_path)
# 递归查找频繁项集
def mine_tree(in_tree, header_table, min_support, prefix, freq_item_list):
big_l = [v[0] for v in sorted(header_table.items(), key=lambda p: p[1][0])]
for base_pat in big_l:
new_freq_set = prefix.copy()
new_freq_set.add(base_pat)
freq_item_list.append(new_freq_set)
cond_patt_bases = find_prefix_path(base_pat, header_table[base_pat][1])
my_cond_tree, my_head = create_tree(cond_patt_bases, min_support)
if my_head is not None:
mine_tree(my_cond_tree, my_head, min_support, new_freq_set, freq_item_list)
# 查找条件模式基
def find_prefix_path(base_pat, tree_node):
cond_patt_bases = {}
while tree_node is not None:
prefix_path = []
ascend_tree(tree_node, prefix_path)
if len(prefix_path) > 1:
cond_patt_bases[frozenset(prefix_path[1:])] = tree_node.count
tree_node = tree_node.next
return cond_patt_bases
# FP-growth 算法
def fp_growth(dataset, min_support):
root_node, header_table = create_tree(dataset, min_support)
freq_items = []
mine_tree(root_node, header_table, min_support, set([]), freq_items)
return freq_items
接下来,我们可以使用该算法对韩国自行车租用数据进行挖掘。假设数据集已经保存在一个文本文件中,每行表示一次租用自行车,其中的项用空格隔开。可以使用以下代码读取数据并进行处理:
# 读取数据
dataset = {}
with open('bike_rental.txt') as f:
for line in f:
trans = frozenset(line.strip().split(' '))
dataset[trans] = dataset.get(trans, 0) + 1
# 运行 FP-Growth 算法
min_support = 100
freq_items = fp_growth(dataset, min_support)
# 输出结果
for itemset in freq_items:
print(itemset)
其中,min_support 指定了最小支持度,freq_items 是挖掘出来的频繁项集。可以根据实际需求调整 min_support 的值,以得到不同的结果。
原文地址: https://www.cveoy.top/t/topic/or6K 著作权归作者所有。请勿转载和采集!