1:a,b,c,d,e
2:a,b,c
3:e,f
4:b,c,d,e
现将其建立FP树
计算支持度
a=2,b=3,c=3,d=2,e=2,f=1
剔除支持度=1的,再排序
b3,c3,a2,d2,e2
1:b,c,a,d,e
2:b,c,a
3:e
4:b,c,d,e
第一个插入树中:
第二个插入树中:
第三个插入:
第四个:
这样找频繁项集的支持度只需要找路径就好了
from __future__ import print_function
print(__doc__)class treeNode:def __init__(self,nameValue,numOccur,parentNode):self.name=nameValueself.count=numOccurself.nodeLink=Noneself.parent=parentNodeself.children={}def inc(self,numOccur):self.count+=numOccurdef disp(self,ind=1):#将树以文本形式展示print(' '*ind,self.name,' ',self.count)for child in self.children.values():child.disp(ind+1)def loadSimpDat():simpDat = [['r', 'z', 'h', 'j', 'p'],['z', 'y', 'x', 'w', 'v', 'u', 't', 's'],['z'],['r', 'x', 'n', 'o', 's'],# ['r', 'x', 'n', 'o', 's'],['y', 'r', 'x', 'z', 'q', 't', 'p'],['y', 'z', 'x', 'e', 'q', 's', 't', 'm']]return simpDatdef createInitSet(dataSet):retDict = {}for trans in dataSet:if not retDict.has_key(frozenset(trans)):retDict[frozenset(trans)] = 1else:retDict[frozenset(trans)] += 1return retDict# this version does not use recursion
def updateHeader(nodeToTest, targetNode):"""updateHeader(更新头指针,建立相同元素之间的关系,例如: 左边的r指向右边的r值,就是后出现的相同元素 指向 已经出现的元素)从头指针的nodeLink开始,一直沿着nodeLink直到到达链表末尾。这就是链表。性能: 如果链表很长可能会遇到迭代调用的次数限制。Args:nodeToTest 满足minSup {所有的元素+(value, treeNode)}targetNode Tree对象的子节点"""# 建立相同元素之间的关系,例如: 左边的r指向右边的r值while(nodeToTest.nodeLink is not None):nodeToTest=nodeToTest.nodeLinknodeToTest.nodeLink=targetNodedef updateTree(items,inTree,headerTable,count):"""updateTree(更新FP-tree,第二次遍历)# 针对每一行的数据# 最大的key, 添加Args:items 满足minSup 排序后的元素key的数组(大到小的排序)inTree 空的Tree对象headerTable 满足minSup {所有的元素+(value, treeNode)}count 原数据集中每一组Kay出现的次数"""# 取出 元素 出现次数最高的# 如果该元素在 inTree.children 这个字典中,就进行累加# 如果该元素不存在 就 inTree.children 字典中新增key,value为初始化的 treeNode 对象if items[0] in inTree.children:# 更新 最大元素,对应的 treeNode 对象的count进行叠加inTree.children[items[0]].inc(count)else:# 如果不存在子节点,我们为该inTree添加子节点inTree.children[items[0]] = treeNode(items[0], count, inTree)# 如果满足minSup的dist字典的value值第二位为null, 我们就设置该元素为 本节点对应的tree节点# 如果元素第二位不为null,我们就更新header节点if headerTable[items[0]][1] is None:# headerTable只记录第一次节点出现的位置headerTable[items[0]][1] = inTree.children[items[0]]else:# 本质上是修改headerTable的key对应的Tree,的nodeLink值updateHeader(headerTable[items[0]][1], inTree.children[items[0]])if len(items) > 1:# 递归的调用,在items[0]的基础上,添加item0[1]做子节点, count只要循环的进行累计加和而已,统计出节点的最后的统计值。updateTree(items[1:], inTree.children[items[0]], headerTable, count)def createTree(dataSet, minSup=1):"""createTree(生成FP-tree)Args:dataSet dist{行: 出现次数}的样本数据minSup 最小的支持度Returns:retTree FP-treeheaderTable 满足minSup {所有的元素+(value, treeNode)}"""# 支持度>=minSup的dist{所有元素: 出现的次数}headerTable = {}# 循环 dist{行: 出现次数}的样本数据for trans in dataSet:# 对所有的行进行循环,得到行里面的所有元素# 统计每一行中,每个元素出现的总次数for item in trans:# 例如: {'ababa': 3} count(a)=3+3+3=9 count(b)=3+3=6headerTable[item] = headerTable.get(item, 0) + dataSet[trans]# 删除 headerTable中,元素次数<最小支持度的元素for k in headerTable.keys():if headerTable[k] < minSup:del(headerTable[k])# 满足minSup: set(各元素集合)freqItemSet = set(headerTable.keys())# 如果不存在,直接返回Noneif len(freqItemSet) == 0:return None, Nonefor k in headerTable:# 格式化: dist{元素key: [元素次数, None]}headerTable[k] = [headerTable[k], None]# create treeretTree = treeNode('Null Set', 1, None)# 循环 dist{行: 出现次数}的样本数据for tranSet, count in dataSet.items():# print 'tranSet, count=', tranSet, count# localD = dist{元素key: 元素总出现次数}localD = {}for item in tranSet:# 判断是否在满足minSup的集合中if item in freqItemSet:# print 'headerTable[item][0]=', headerTable[item][0], headerTable[item]localD[item] = headerTable[item][0]# print 'localD=', localDif len(localD) > 0:# p=key,value; 所以是通过value值的大小,进行从大到小进行排序# orderedItems 表示取出元组的key值,也就是字母本身,但是字母本身是大到小的顺序orderedItems = [v[0] for v in sorted(localD.items(), key=lambda p: p[1], reverse=True)]# print 'orderedItems=', orderedItems, 'headerTable', headerTable, '\n\n\n'# 填充树,通过有序的orderedItems的第一位,进行顺序填充 第一层的子节点。updateTree(orderedItems, retTree, headerTable, count)return retTree, headerTabledef ascendTree(leafNode, prefixPath):"""ascendTree(如果存在父节点,就记录当前节点的name值)Args:leafNode 查询的节点对于的nodeTreeprefixPath 要查询的节点值"""if leafNode.parent is not None:prefixPath.append(leafNode.name)ascendTree(leafNode.parent, prefixPath)def findPrefixPath(basePat, treeNode):"""findPrefixPath 基础数据集Args:basePat 要查询的节点值treeNode 查询的节点所在的当前nodeTreeReturns:condPats 对非basePat的倒叙值作为key,赋值为count数"""condPats = {}# 对 treeNode的link进行循环while treeNode is not None:prefixPath = []# 寻找改节点的父节点,相当于找到了该节点的频繁项集ascendTree(treeNode, prefixPath)# 避免 单独`Z`一个元素,添加了空节点if len(prefixPath) > 1:# 对非basePat的倒叙值作为key,赋值为count数# prefixPath[1:] 变frozenset后,字母就变无序了# condPats[frozenset(prefixPath)] = treeNode.countcondPats[frozenset(prefixPath[1:])] = treeNode.count# 递归,寻找改节点的下一个 相同值的链接节点treeNode = treeNode.nodeLink# print treeNodereturn condPatsdef mineTree(inTree, headerTable, minSup, preFix, freqItemList):"""mineTree(创建条件FP树)Args:inTree myFPtreeheaderTable 满足minSup {所有的元素+(value, treeNode)}minSup 最小支持项集preFix preFix为newFreqSet上一次的存储记录,一旦没有myHead,就不会更新freqItemList 用来存储频繁子项的列表"""# 通过value进行从小到大的排序, 得到频繁项集的key# 最小支持项集的key的list集合bigL = [v[0] for v in sorted(headerTable.items(), key=lambda p: p[1])]print('-----', sorted(headerTable.items(), key=lambda p: p[1]))print('bigL=', bigL)# 循环遍历 最频繁项集的key,从小到大的递归寻找对应的频繁项集for basePat in bigL:# preFix为newFreqSet上一次的存储记录,一旦没有myHead,就不会更新newFreqSet = preFix.copy()newFreqSet.add(basePat)print('newFreqSet=', newFreqSet, preFix)freqItemList.append(newFreqSet)print('freqItemList=', freqItemList)condPattBases = findPrefixPath(basePat, headerTable[basePat][1])print('condPattBases=', basePat, condPattBases)# 构建FP-treemyCondTree, myHead = createTree(condPattBases, minSup)print('myHead=', myHead)# 挖掘条件 FP-tree, 如果myHead不为空,表示满足minSup {所有的元素+(value, treeNode)}if myHead is not None:myCondTree.disp(1)print('\n\n\n')# 递归 myHead 找出频繁项集mineTree(myCondTree, myHead, minSup, newFreqSet, freqItemList)print('\n\n\n')# import twitter
# from time import sleep
# import re# def getLotsOfTweets(searchStr):
# """
# 获取 100个搜索结果页面
# """
# CONSUMER_KEY = ''
# CONSUMER_SECRET = ''
# ACCESS_TOKEN_KEY = ''
# ACCESS_TOKEN_SECRET = ''
# api = twitter.Api(consumer_key=CONSUMER_KEY, consumer_secret=CONSUMER_SECRET, access_token_key=ACCESS_TOKEN_KEY, access_token_secret=ACCESS_TOKEN_SECRET)# # you can get 1500 results 15 pages * 100 per page
# resultsPages = []
# for i in range(1, 15):
# print "fetching page %d" % i
# searchResults = api.GetSearch(searchStr, per_page=100, page=i)
# resultsPages.append(searchResults)
# sleep(6)
# return resultsPages# def textParse(bigString):
# """
# 解析页面内容
# """
# urlsRemoved = re.sub('(http:[/][/]|www.)([a-z]|[A-Z]|[0-9]|[/.]|[~])*', '', bigString)
# listOfTokens = re.split(r'\W*', urlsRemoved)
# return [tok.lower() for tok in listOfTokens if len(tok) > 2]# def mineTweets(tweetArr, minSup=5):
# """
# 获取频繁项集
# """
# parsedList = []
# for i in range(14):
# for j in range(100):
# parsedList.append(textParse(tweetArr[i][j].text))
# initSet = createInitSet(parsedList)
# myFPtree, myHeaderTab = createTree(initSet, minSup)
# myFreqList = []
# mineTree(myFPtree, myHeaderTab, minSup, set([]), myFreqList)
# return myFreqList
# rootNode = treeNode('pyramid', 9, None)# rootNode.children['eye'] = treeNode('eye', 13, None)# rootNode.children['phoenix'] = treeNode('phoenix', 3, None)# # 将树以文本形式显示# # print rootNode.disp()# load样本数据simpDat = loadSimpDat()# print simpDat, '\n'# frozen set 格式化 并 重新装载 样本数据,对所有的行进行统计求和,格式: {行: 出现次数}initSet = createInitSet(simpDat)print(initSet)# 创建FP树# 输入: dist{行: 出现次数}的样本数据 和 最小的支持度# 输出: 最终的PF-tree,通过循环获取第一层的节点,然后每一层的节点进行递归的获取每一行的字节点,也就是分支。然后所谓的指针,就是后来的指向已存在的myFPtree, myHeaderTab = createTree(initSet, 3)myFPtree.disp()# 抽取条件模式基# 查询树节点的,频繁子项print('x --->', findPrefixPath('x', myHeaderTab['x'][1]))print('z --->', findPrefixPath('z', myHeaderTab['z'][1]))print('r --->', findPrefixPath('r', myHeaderTab['r'][1]))# 创建条件模式基freqItemList = []mineTree(myFPtree, myHeaderTab, 3, set([]), freqItemList)print(freqItemList)# # 项目实战# # 1.twitter项目案例# # 无法运行,因为没发链接twitter# lotsOtweets = getLotsOfTweets('RIMM')# listOfTerms = mineTweets(lotsOtweets, 20)# print len(listOfTerms)# for t in listOfTerms:# print t# # 2.新闻网站点击流中挖掘,例如: 文章1阅读过的人,还阅读过什么?# parsedDat = [line.split() for line in open('data/12.FPGrowth/kosarak.dat').readlines()]# initSet = createInitSet(parsedDat)# myFPtree, myHeaderTab = createTree(initSet, 100000)# myFreList = []# mineTree(myFPtree, myHeaderTab, 100000, set([]), myFreList)# print myFreList