由于 FP-Growth 算法需要对数据进行预处理,并且涉及到频繁模式挖掘的相关概念,因此在实现之前需要对相关概念进行了解和理解。

频繁模式挖掘是一种在大规模数据集中发现重要模式的技术,其中频繁项集是指在数据集中经常同时出现的项的集合。FP-Growth 算法是一种频繁模式挖掘算法,它能够高效地处理大规模数据集,并找到其中的频繁项集。该算法的核心思想是利用 FP 树(一种特殊的数据结构)来表示数据集,然后通过挖掘 FP 树的频繁模式来发现数据集中的频繁项集。

下面是 FP-Growth 算法对于韩国自行车租用数据的实现:

首先,需要对数据进行预处理,将每个交易(即每次租用自行车)转换为一个项集。这里假设数据已经预处理好,每个交易表示为一个含有多个项的列表。

然后,需要构建 FP 树。FP 树的构建过程分为两步:首先遍历数据集,统计每个项的出现次数,并将其保存在一个项头表中;然后再次遍历数据集,利用项头表和一个空的根节点来构建 FP 树。

接下来,需要对 FP 树进行挖掘,找出其中的频繁项集。挖掘过程分为两步:首先从项头表中选择一个频繁项作为条件模式基,然后递归地构建条件 FP 树,并从中找出频繁项集;然后继续选择下一个频繁项,直到所有的频繁项都被挖掘为止。

具体的 Python 实现代码如下:

# 定义节点类
class TreeNode:
    def __init__(self, name, count, parent):
        self.name = name
        self.count = count
        self.parent = parent
        self.children = {}
        self.next = None

    def increment(self, count):
        self.count += count

    def display(self, ind=1):
        print('  '*ind, self.name, ':', self.count)
        for child in self.children.values():
            child.display(ind+1)

# 构建 FP 树
def create_tree(dataset, min_support):
    header_table = {}  # 项头表
    for trans in dataset:
        for item in trans:
            header_table[item] = header_table.get(item, 0) + dataset[trans]

    for k in list(header_table.keys()):
        if header_table[k] < min_support:
            del(header_table[k])

    freq_item_set = set(header_table.keys())
    if len(freq_item_set) == 0:
        return None, None

    for k in header_table:
        header_table[k] = [header_table[k], None]

    root_node = TreeNode('Null Set', 1, None)
    for trans, count in dataset.items():
        local_D = {}
        for item in trans:
            if item in freq_item_set:
                local_D[item] = header_table[item][0]
        if len(local_D) > 0:
            ordered_items = [v[0] for v in sorted(local_D.items(), key=lambda p: p[1], reverse=True)]
            update_tree(ordered_items, root_node, header_table, count)

    return root_node, header_table

# 更新 FP 树
def update_tree(items, root_node, header_table, count):
    if items[0] in root_node.children:
        root_node.children[items[0]].increment(count)
    else:
        root_node.children[items[0]] = TreeNode(items[0], count, root_node)
        if header_table[items[0]][1] is None:
            header_table[items[0]][1] = root_node.children[items[0]]
        else:
            update_header(header_table[items[0]][1], root_node.children[items[0]])
    if len(items) > 1:
        update_tree(items[1:], root_node.children[items[0]], header_table, count)

# 更新项头表
def update_header(node_to_test, target_node):
    while node_to_test.next is not None:
        node_to_test = node_to_test.next
    node_to_test.next = target_node

# 构建条件模式基
def ascend_tree(leaf_node, prefix_path):
    if leaf_node.parent is not None:
        prefix_path.append(leaf_node.name)
        ascend_tree(leaf_node.parent, prefix_path)

# 递归查找频繁项集
def mine_tree(in_tree, header_table, min_support, prefix, freq_item_list):
    big_l = [v[0] for v in sorted(header_table.items(), key=lambda p: p[1][0])]
    for base_pat in big_l:
        new_freq_set = prefix.copy()
        new_freq_set.add(base_pat)
        freq_item_list.append(new_freq_set)
        cond_patt_bases = find_prefix_path(base_pat, header_table[base_pat][1])
        my_cond_tree, my_head = create_tree(cond_patt_bases, min_support)
        if my_head is not None:
            mine_tree(my_cond_tree, my_head, min_support, new_freq_set, freq_item_list)

# 查找条件模式基
def find_prefix_path(base_pat, tree_node):
    cond_patt_bases = {}
    while tree_node is not None:
        prefix_path = []
        ascend_tree(tree_node, prefix_path)
        if len(prefix_path) > 1:
            cond_patt_bases[frozenset(prefix_path[1:])] = tree_node.count
        tree_node = tree_node.next
    return cond_patt_bases

# FP-growth 算法
def fp_growth(dataset, min_support):
    root_node, header_table = create_tree(dataset, min_support)
    freq_items = []
    mine_tree(root_node, header_table, min_support, set([]), freq_items)
    return freq_items

接下来,我们可以使用该算法对韩国自行车租用数据进行挖掘。假设数据集已经保存在一个文本文件中,每行表示一次租用自行车,其中的项用空格隔开。可以使用以下代码读取数据并进行处理:

# 读取数据
dataset = {}
with open('bike_rental.txt') as f:
    for line in f:
        trans = frozenset(line.strip().split(' '))
        dataset[trans] = dataset.get(trans, 0) + 1

# 运行 FP-Growth 算法
min_support = 100
freq_items = fp_growth(dataset, min_support)

# 输出结果
for itemset in freq_items:
    print(itemset)

其中,min_support 指定了最小支持度,freq_items 是挖掘出来的频繁项集。可以根据实际需求调整 min_support 的值,以得到不同的结果。

FP-Growth 算法实现:分析韩国自行车租赁数据

原文地址: https://www.cveoy.top/t/topic/or6K 著作权归作者所有。请勿转载和采集!

免费AI点我,无需注册和登录