一、起因:      昨天在简书上看到这么一篇文章《中国的父母,大都有毛病》,看完之后个人是比较认同作者的观点。     不过,翻了下评论,发现评论区争议颇大,基本两极化。好奇,想看看整体的评论是个什么样,就写个爬虫,做了。二、怎么做:     ① 观察页面,找到获取评论的请求,查看评论数据样式,写爬虫&
转载 2023-07-01 17:16:37
116阅读
背景用 Python 的 requests 模块取 金十数据 首页中间部分的资讯信息,练习了两种处理过程:写入 MySQL 数据库和分析,对比之下 Python 几行代码就能完成 MySQL入库,真是太简洁了!环境准备用到的 python 库有:PILjiebarequestswordcloudpymysql本机环境为 python 3.6 ,发现有些库如 wordcloud 使用 pip
转载 2024-01-15 09:05:29
227阅读
利用python中的库和函数设计一个取读书网中“软件与程序设计”栏的程序,并对其书名制作词云图,下载其书封面存储到本地文件中。 构建多个函数分别进行网页的请求,html的获取,所需数据的解析与取,云图的构建,数据文件的存储,以及构建一个类对书图片进行下载存储。 所需的python库有:import time import requests import json from lxml impo
转载 2024-08-14 01:17:42
140阅读
很早之前写过一篇怎么利用微博数据制作词云图片出来,之前的写得不完整,而且只能使用自己的数据,现在重新整理了一下,任何的微博数据都可以制作出来,放在今天应该比较应景。一年一度的虐汪节,是继续蹲在角落默默吃狗粮还是主动出击告别单身汪加入散狗粮的行列就看你啦,七夕送什么才有心意,程序猿可以试试用一种特别的方式来表达你对女神的心意。有一个创意是把她过往发的微博整理后用词展示出来。本文教你怎么用Pytho
  下面使用Python开发一个网页爬虫,取百度百科词条信息,整个程序涉及到url管理器,html下载器,html解析器,html显示以及调度程序:程序结构:spider_main.py:爬虫的调度程序url_manager.py:爬虫URL管理器,维护两个set,一个为将要取信息的url,一个为已经取过的urlhtml_downloader.py:html下载器html
转载 2024-08-20 18:49:19
440阅读
简介当我们想快速了解书籍、小说、电影剧本中的内容时,可以绘制 WordCloud 云图,显示主要的关键(高频),可以非常直观地看到结果。一般的云图可以利用在线的云图制作工具就可以满足,例如:TAG UL 、图悦 、Tagxedo 、Tocloud 等。如果我们想要有一个好的云图展示,就需要进行 分词 ,比较好的分词工具有:Pullword 、jieba 等。制作现在,我们就利用pytho
前言emmmm 没什么说的,想说的都在代码里环境使用Python 3.8 解释器 3.10Pycharm 2021.2 专业版selenium 3
原创 2022-05-29 07:31:16
455阅读
如果你懒得看下边的文字,我录了一个完整的教学视频在b站上。我的B站教学:https://www.bilibili.com/video/av75377135?p=2工作原理b站是提供弹幕接...
原创 2021-07-07 11:12:15
402阅读
1点赞
前一段时间学校有个project,做一个电影购票系统,当时就用springboot做了系统,用python抓了一些电影的基本信息。后来发现如
原创 2022-08-24 14:15:37
365阅读
如果你懒得看下边的文字,我录了一个完整的教学视频在b站上。我的B站教学:https://.bilibili.com/video/av75377135?p=2工作原理b站是提供弹幕接...
原创 2022-03-14 16:58:50
10000+阅读
很早之前写过一篇怎么利用微博数据制作词云图片出来,之前的写得不完整,而且只能使用自己的数据,现在重新整理了一下,任何人的微博数据都可以制作出来,即使是Python小白也能分分钟做出来。准备工作本环境基于Python3,理论上Python2.7也是可行的,先安装必要的第三方依赖包:# requirement.txt jieba==0.38 matplotlib==2.0.2 numpy==1.13.
一、Why!之前做了基于python的青少年沉迷网络调查报告,最后用的是jieba分词和wordcloud进行可视化分析,但是结果图由于取的内容不精确,有一些不相关也被放入可视化中,所以此次想把那个内容再重新可视化分析,剔除参杂其中的无用词!二、What!原源码如下:# 导入制作库wordcloud和中文分词库jieba import jieba import wordcloud #
首先是准备工作:要用到的库import matplotlib.pyplot as plt #用于可视化画图 from wordcloud import WordCloud # import jieba #用于中文分词字体文件处理如果text(用于生成的数据是中文的话)复制到项目文件中:第一个很简单但是很丑的先来一个很简单的,当然简单就意味着丑陋 (╬▔皿▔)╯顺序: 1、text文字数据
转载 2023-10-06 20:28:49
184阅读
今天跑去剪头发,理发师又说我头发变少了(黑人问号脸???),我距离上次剪头发已经过去了两个月了OK?唉,说多了都是泪。。。今天写的是怎么用Python去做。本来是准备用Pycharm的,但是它说我缺少Microsoft什么什么的,然后导包导不进去,还折腾了好久,最后放弃了Pycharm,决定用sublime了,说实话,sublime是真的强大,按照网上的教程,装个环境就可以写Python
转载 2024-07-28 16:09:25
0阅读
Python怎么生成云图呢? 网上有很多教程,这里给大家介绍一种比较简单易懂的方式方法。首先请自主下载worldcloud, jieba, imageio三个库。 一. wordcloud库1. 从字面意思来看我们就能知道,wordcloud()是制作词的核心库,也是必不可少的一个库。 2. WordCloud对象创建的常用参数。3. WordCloud类的
转载 2023-06-19 21:05:59
292阅读
   我的电脑是Windows32 位,Python3.6,电脑上需要提前下载好anaconda操作平台,在网上能搜索到,下载即可。另外文本和包我是通过“tn/RRLnQgm”直接下载得到。这是我根据知乎专栏 “玉树芝兰” 的视频学习得来,有不懂的或者想更细致学习的请关注他。以下是我自己的体会和总结。   1、 安装完anaconda后,在开始-所有程序
转载 2023-08-28 18:39:27
180阅读
一. 安装WordCloud在使用WordCloud之前,需要使用pip安装相应的包。pip install WordCloudpip install jieba其中WordCloud是,jieba是结巴分词工具。问题:在安装WordCloud过程中,你可能遇到的第一个错误如下。error: Microsoft Visual C 9.0 is required. Get it from h
准备的操作:1、安装好python3系列版本2、安装python第三方库wordcloud;3、安装numpy、pillow库。4、安装jieba库5、安装matplotlib库一般只需要安装:wordcloud和jiebapip install wordcloudpip install jieba步骤:1、打开我的电脑C:\Windows\Fonts,复制一个字体到指定位置用于后续输出使用;2、
转载 2023-05-18 15:21:57
403阅读
Python基于WordCloud云图的数据可视化分析 云图的基本使用 政府工作报告分析 文章目录1、云图简介2、wordcloud库的安装3、WordCloud的主要参数说明4、绘制云图1、获取并处理文本信息2、将白底的轮廓图片转换成array形式3、生成并保存成文件 1、云图简介词云图,也叫文字,是对文本数据中出现频率较高的“关键”在视觉上予以突出,形成“关键的渲染”,类似
小demo jieba wordcloud 一 什么是?由词汇组成类似的彩色图形。“”就是对网络文本中出现频率较高的“关键”予以视觉上的突出,形成“关键云层”或“关键渲染”,从而过滤掉大量的文本信息,使浏览网页者只要一眼扫过文本就可以领略文本的主旨。 二 有什么作
转载 2023-09-07 13:34:34
183阅读
  • 1
  • 2
  • 3
  • 4
  • 5