一、安装并配置Spark
1.首先检查一下java和hadoop的环
2.下载spark
3.解压spark安装包,对文件夹重命名,复制配置文件
4.对配置文件进行修改
3.配置好环境变量之后,进行
source ~/.bashrc
5.配置好环境之后就可以启动spark了,
6.输入python代码进行测试
二、Python编程练习:英文文本的词频统计
1.代码语句
2.结果显示
好文要顶 已关注 收藏该文
来源:https://www.cnblogs.com/yqy123/p/15978854.html
本站部分图文来源于网络,如有侵权请联系删除。