哪个库做的词频分析呢?
看看大神的杰作
# -*- coding: cp936 -*-
因为返回的不是中文
改了一下,加一个import json
#! /usr/bin/env python
# encoding:utf-8
import json
import codecs as cs
import jieba as jb #jieba是python上非常不错的中文分词插件,有多种模式可以选择
f = cs.open("bad.txt","r")
lines = f.readlines()
f.close()
data = []
dic ={}
for each in lines:
bad = jb.cut_for_search(each)
data.append(bad)
for eachline in data:
for eachword in eachline:
if eachword in dic:
dic += 1
else:
dic = 1
sorteddic = sorted(dic.items(),key=lambda x:x,reverse=True)
for i in range(200): #显示了前100项,但是很多都是无用的助词或者标点符号,我在excel里手动删了,还是很方便的。
print json.dumps(sorteddic,encoding='UTF-8',ensure_ascii=False)
正好在做相关的分析,过来参考下
顶顶顶顶
学习一下
看看
犀利 1024
1111111111
看看看看那看看卡
看看如何分析词频
哈哈哈
1
666
参观学习一下
00
膜拜
瞄一下,
看看代码
学习学习