您的位置:首页 > 游戏 > 游戏 > 全国大学生数学建模比赛——关联规则

全国大学生数学建模比赛——关联规则

2024/10/10 22:13:05 来源:https://blog.csdn.net/weixin_66547608/article/details/141787494  浏览:    关键词:全国大学生数学建模比赛——关联规则

一、问题背景与关联规则适用性

在数学建模比赛中,常常会遇到需要分析大量数据以寻找变量之间潜在关系的问题。关联规则分析作为一种数据挖掘技术,特别适用于这种场景。例如,在一些实际问题中,可能需要从众多的因素中找出哪些因素之间存在较强的关联,以便更好地理解问题的本质和制定解决方案。

二、关联规则在比赛中的应用步骤

  1. 数据收集与预处理

    • 首先,收集与问题相关的各种数据。这些数据可能来自调查问卷、实验结果、历史记录等。
    • 然后,对数据进行预处理,包括数据清洗、去除异常值、编码等操作,使其适合进行关联规则分析。
  2. 应用关联规则算法

    • 选择合适的关联规则算法,如 Apriori 算法或 FP-growth 算法。这些算法可以根据给定的最小支持度和最小置信度,挖掘出数据中的频繁项集和强关联规则。
    • 设置适当的参数,如最小支持度和最小置信度。这些参数的选择需要根据具体问题和数据特点进行调整,以确保挖掘出的关联规则具有实际意义。
  3. 结果分析与解释

    • 分析挖掘出的关联规则,理解每个规则所表示的含义。例如,一条关联规则可能表明当某个变量取值为特定值时,另一个变量取值为特定值的可能性较大。
    • 结合问题背景,对关联规则进行解释和评估。判断这些规则是否符合实际情况,是否能够为问题的解决提供有价值的信息。

三、关联规则的优势与挑战

  1. 优势

    • 能够发现数据中隐藏的关系,为问题的分析和解决提供新的视角。
    • 可以处理大规模数据,适用于各种复杂的实际问题。
    • 结果易于理解和解释,能够为决策者提供直观的信息。
  2. 挑战

    • 参数的选择对结果有较大影响,需要进行多次试验和调整。
    • 可能会挖掘出一些虚假的关联规则,需要进行进一步的验证和筛选。
    • 对于高维度数据,计算复杂度较高,可能需要采用一些优化算法或技术。

总之,在全国大学生数学建模比赛中,关联规则是一种强大的工具,可以帮助参赛选手更好地理解数据、发现问题的本质,并提出有效的解决方案。但在使用关联规则时,需要注意参数的选择、结果的验证和解释等问题,以确保分析结果的准确性和可靠性。

 

例题:

分析下面数据,找出其中的关联关系

 

data = {'I1': ['西红柿', '排骨', '鸡蛋', '毛巾', '水果刀', '苹果'],'I2': ['西红柿', '茄子', '水果刀', '香蕉'],'I3': ['鸡蛋', '袜子', '毛巾', '肥皂', '苹果', '水果刀'],'I4': ['西红柿', '排骨', '茄子', '毛巾', '水果刀'],'I5': ['西红柿', '排骨', '酸奶', '苹果'],'I6': ['鸡蛋', '茄子', '酸奶', '肥皂', '苹果', '香蕉'],'I7': ['排骨', '鸡蛋', '茄子', '水果刀', '苹果'],'I8': ['土豆', '鸡蛋', '袜子', '香蕉', '苹果', '水果刀'],'I9': ['西红柿', '排骨', '鞋子', '土豆', '香蕉', '苹果']
}

 

关联规则分析(4-4)

  1. 安装mlxtend

pip install mlxtend

  1. 数据读取与预处理
  1. 使用pd.read_excel()读取并转换为下图中所示Python List
  1. 使用TransactionEncoder将上图中列表转换为下图中所示DataFrame
  1. 使用apriori算法挖掘频繁项集(最小支持度为0.3),并输出结果

(4)使用FP-growth算法挖掘频繁项集(最小支持度为0.3),并输出结果,与上一问结果进行对比

(5)生成强规则(最小置信度为0.5, 提升度>1),并输出结果

 代码展示:

import pandas as pd
from mlxtend.preprocessing import TransactionEncoder
from mlxtend.frequent_patterns import apriori, fpgrowth, association_rules
# 步骤2:数据读取与预处理
data = {'I1': ['西红柿', '排骨', '鸡蛋', '毛巾', '水果刀', '苹果'],'I2': ['西红柿', '茄子', '水果刀', '香蕉'],'I3': ['鸡蛋', '袜子', '毛巾', '肥皂', '苹果', '水果刀'],'I4': ['西红柿', '排骨', '茄子', '毛巾', '水果刀'],'I5': ['西红柿', '排骨', '酸奶', '苹果'],'I6': ['鸡蛋', '茄子', '酸奶', '肥皂', '苹果', '香蕉'],'I7': ['排骨', '鸡蛋', '茄子', '水果刀', '苹果'],'I8': ['土豆', '鸡蛋', '袜子', '香蕉', '苹果', '水果刀'],'I9': ['西红柿', '排骨', '鞋子', '土豆', '香蕉', '苹果']
}transactions = list(data.values())# 步骤3:使用TransactionEncoder将列表转换为DataFrame
te = TransactionEncoder()
te_ary = te.fit(transactions).transform(transactions)
print(te_ary)
df = pd.DataFrame(te_ary, columns=te.columns_)# 步骤4:使用apriori算法挖掘频繁项集(最小支持度为0.3),并输出结果
frequent_itemsets_apriori = apriori(df, min_support=0.3, use_colnames=True)
print("使用Apriori算法挖掘频繁项集:")
print(frequent_itemsets_apriori.to_string(index=False))# 步骤5:使用FP-growth算法挖掘频繁项集(最小支持度为0.3),并输出结果,与上一问结果进行对比
frequent_itemsets_fpgrowth = fpgrowth(df, min_support=0.3, use_colnames=True)
print("\n使用FP-growth算法挖掘频繁项集:")
print(frequent_itemsets_fpgrowth.to_string(index=False))# 步骤6:生成强规则(最小置信度为0.5, 提升度>1),并输出结果
rules = association_rules(frequent_itemsets_apriori, metric="confidence", min_threshold=0.5)
rules = rules[rules['lift'] > 1]
print("\n强规则:")
print(rules.to_string(index=False))

结果展示:

 

 

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com