一、安装Spark
检查基础环境hadoop,jdk
下载spark
配置相关文件
配置环境变量
启动spark并运行python代码
def load_file(word_freq): # 读文件到缓冲区 try: # 打开文件 f = open(intext, \'r\') except IOError as s: print(s) return None try: # 读文件到缓冲区 bvffer = f.read() except: print(\"ERROR!!\") return None f.close() if bvffer: # 下面添加处理缓冲区 bvffer代码,统计每个单词的频率,存放在字典word_freq bvffer = bvffer.lower() for ch in \'“‘!;,.?”\': bvffer = bvffer.lower().replace(ch, \" \") #将所有字母转换成小写,便于统计 words = bvffer.strip().split() #strip消除空白符,split以空格作为单词分界 for word in words: word_freq[word] = word_freq.get(word, 0)+1 #读取到的单词存放到字典 return word_freq def output_result(word_freq): if word_freq: sorted_word_freq = sorted(word_freq.items(), key=lambda v: v[1], reverse=True) for item in sorted_word_freq[:10]: # 输出 Top 10 的单词 print(item[0], item[1]) f = open(outtext, \'a\') f.write(str(item[0]) + \' \' +str(item[1])) f.write(\'\\n\') f.close() if __name__ == \"__main__\": word_freq = {} intext = \"text.txt\" outtext = \'outtext.txt\' a = load_file(word_freq) output_result(a)
二、Python编程练习:英文文本的词频统计
1、准备文本
2、预处理:大小写,标点符号,停用词
3、统计每个单词出现的次数
4、结果写文件
来源:https://www.cnblogs.com/144lqf/p/15970113.html
本站部分图文来源于网络,如有侵权请联系删除。