一、案例场景
字段login_place,一共267725行记录,随机15条记录如下:
后续数据分析工作需要用到地理维度进行分析,所以需要把login_place字段进行拆分成:国家、省份、地区。
二、初步方案
第三方中文分词库:jieba,可以对文本进行拆分。使用参考资料:jieba库的使用。
初步方案:
代码:(抽取1000条记录,看一下我这台机器的运行时间)
%%time
# 地区拆分
for i in range(1000):
list_word=[word for word in jieba.cut(df.iloc[i,0])]
if len(list_word)==1:
if \'中国\' in df.iloc[i,0]:
df.loc[i,\'国家\']=df.iloc[i,0][0:2]
df.loc[i,\'省份\']=df.iloc[i,0][2:]
else:
df.loc[i,\'国家\']=df.iloc[i,0]
elif len(list_word)==2:
df.loc[i,\'国家\']=list_word[0]
df.loc[i,\'省份\']=list_word[1]
else:
df.loc[i,\'国家\']=list_word[0]
df.loc[i,\'省份\']=list_word[1]
df.loc[i,\'地区\']=list_word[2]
if i%100==0:
print(f\'{round(i*100/(int(1000)),2)}%\')
1000条用了1min 37秒。如果全部进行数据解析等待时间应该很久很久。有很多重复的记录,这里先去重,再跑一次代码。
去重之后,只有404不重复的记录。
再跑一遍代码,并且把结果保存到本地文件‘df_test.xlsx’。便于查看jieba第三方分词库对本次数据拆分是不是想要的结果。
国家:
‘国家’这一列,中国台湾没有拆分出来。
代码试了一下,发现‘中国台湾’确实拆分不了。证实了台湾确实中国不可缺失的一部分。
省份:
‘省份’这一列拆分的更加糟糕。
总结:总数据集运行时间长,切词不准确。需要优化拆分方案!
三、优化方案
在上面查看Excel文件时候发现‘login_place’字段的数据有以下特点:
优化方案:
%%time
# 地区拆分
for i in range(df.shape[0]):
if \'中国\' in df.iloc[i,0] :
df.loc[i,\'国家\'] = \'中国\'
if (\'内蒙古\' in df.iloc[i,0]) or (\'黑龙江\' in df.iloc[i,0]):
# print(df.iloc[i,0])
df.loc[i,\'省份\'] = df.iloc[i,0][2:5]
if len(df.iloc[i,0]) > 5:
df.loc[i,\'地区\'] = df.iloc[i,0][5:]
else:
df.loc[i,\'省份\'] = df.iloc[i,0][2:4]
df.loc[i,\'地区\'] = df.iloc[i,0][4:]
else:
list_word = [word for word in jieba.cut(df.iloc[i,0])]
if len(list_word) == 1:
df.loc[i,\'国家\'] = df.iloc[i,0][0:2]
df.loc[i,\'省份\'] = df.iloc[i,0][2:]
else:
df.loc[i,\'国家\'] = list_word[0]
df.loc[i,\'省份\'] = list_word[1]
if i%100==0:
print(f\'{round(i*100/(int(df.shape[0])),2)}%\')
保存Excel文件,再次查看拆分情况。经过去重后的测试集拆分符合想要的结果。
运行未去重源数据集结果:
来源:https://www.cnblogs.com/xiaoshun-mjj/p/14882291.html
图文来源于网络,如有侵权请联系删除。