博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
python自学笔记之wordcloud库jieba库绘制词云的用法(一)
阅读量:3914 次
发布时间:2019-05-23

本文共 1038 字,大约阅读时间需要 3 分钟。

python第三方库Wordcloud和jieba库绘制词云(自学笔记一)

*首先绘制词云需要安装一个pip的第三方库wordcloud 打开cmd命令行输入:**pip install wordcloud** 或者直接在pypi官网下载相应的.whl文件,然后手动安装。

wordcloud库提供了三个最主要的方法生成词云,

一个是wordcloud.WordCloud( font_path=” “,/ #字体风格
width=1000,height=1000,/ #生成像素为1000*1000的词云图片
)
另一个是wordcloud.generate() ,即生成词云图片,
最后一个是wordcloud.to_file(” path”),即将生成的词云保存在地址里。

jieba 库提供了一个最主要的功能,那就是分词功能。

用法

f1=open("chat.txt","r",encoding="utf-8").read()list=[]list=jieba.lcut(f1) #此时的列表为chat文本分词后的列表
我想要查看一篇中文文章的侧重点是什么,但是我又不想去阅读。这时候,我们可以使用我们的python脚本进行对其产生词云处理,可以很快地知道文章的重点要讲什么。下面,我们对百度百科随便选取一篇人物传记进行词云处理。

百度搜索一篇人物传记:

这里写图片描述

完整代码如下:

import jiebaimport wordcloudf=open("d:\wenzhang.txt","r",encoding="utf-8")t=f.read()f.close()ls=jieba.lcut(t)txt="".join(ls)w=wordcloud.WordCloud(font_path="msyh.ttc",\                     width=1000,height=700,background_color="white",\                          )w.generate(txt)w.to_file("d:\ciyun.png")

在我们的电脑D盘根目录下寻找我们生成的词云分析图片

这里写图片描述

最终得到我们想要的词云图片,可以看出文章在全国上映的电影有很多,失恋33天为其居榜首。通过python提供的第三方库jieba库,对中文分词具有很强的能力,以及wordcloud库生成词云,我们可以用短短十行代码分析一篇文章的重点。
你可能感兴趣的文章
在 Azure App Service 上启用 Application Request Routing
查看>>
使用 Xunit.DependencyInjection 改造测试项目
查看>>
谈谈.NET Core IServiceProvider
查看>>
一个.NET Core下的开源插件框架Pluginfactory
查看>>
基于阿里云日志服务快速打造简版业务监控看板
查看>>
集赞有礼!进击吧! Blazor !第六期 企业内部应用建设实战
查看>>
大象起舞——微软研发如何保持创新力和敏捷性
查看>>
Newbe.ObjectVisitor 0.2.10 发布,更花里胡哨
查看>>
寻找性能更优秀的动态 Getter 和 Setter 方案
查看>>
跟我一起学.NetCore之EF Core 实战入门,一看就会
查看>>
.NET架构小技巧(8)——优待异常
查看>>
一款基于.NET Core的认证授权解决方案-葫芦藤1.0开源啦
查看>>
寻找性能更优秀的不可变小字典
查看>>
项目开发中经常有一些被嫌弃的小数据,现在全丢给 FastDFS
查看>>
EntityFramework Core上下文实例池原理
查看>>
C# 8: 可变结构体中的只读实例成员
查看>>
11座城市,58个.NET最新岗位速览,内推直通面试官!
查看>>
【招聘(深圳)】华强方特文化科技集团 .NET工程师
查看>>
ASP.NETCore小技巧:使用测试用户中间件
查看>>
.NetCore HttpClient发送请求的时候为什么自动带上了一个RequestId头部?
查看>>