其实小帅b已经挺久没有玩了,记得上次玩还是为了给周杰伦打榜,不过最近心血来潮,觉得俺的账号躺着也是躺着,要不就用 Python 做一个自动定时的机器人,让它在上面飘一会。怎么个飘法呢?这不禁让我想到了一个叫做 “古城钟楼” 的账号,每天都定时定点的在上面 “铛铛档”,其它的啥也不干,但牛逼的是,人家就凭 “铛铛档” 就有了 100 多万粉丝,我特么都快给跪下了。所以
上一节中已经安装了Python SDK,可以在程序中引入weibo模块编写程序了。下面的程序的功能就是利用该模块一条新,先开具体的代码:#! /usr/bin/python"""引入Python SDK的包"""import weibo"""授权需要的三个信息,APP_KEY、APP_SECRET为创建应用时分配的,CALL_BACK在应用的设置网页中设置的。【注意】这里授权时使用的CALL_BACK地址与应用中设置的CALL_BACK必须一致,否则会出现redirect_uri_mismatc
转载 2013-06-15 15:44:00
219阅读
2评论
Python 发送1 #!/usr/bin/env python 2 # -*- coding: utf-8 -*- 3 4 from weibo import * 5 6 def press_sina_weibo(): 7 8 APP_KEY = 'XXXX' 9 APP_SECRET = 'XXXX' 10 11 CALLBACK_U
转载 2023-07-04 22:56:49
268阅读
前言前不久萌生了学习下python的想法,于是乎本着练手的目的做了这么个的小玩意。注册新浪weibo允许第三方以应用的方式发布,所以我们首先要做的就是通过新浪开放平台注册一个应用:weibo_open 打开上述平台的页面,用账号登录,然后点立即接入开始注册自己的应用,按提示操作即可。如下是我自己创建好的应用,名为share.cn:app 在个人应用的应用信息-
需求手头的一个应用需要添加分享到新浪的功能,这个功能在现在的应用上是非常的普遍的了。分享到新浪,其实就是发送一条特定内容的,所以需要用到新浪SDK了。SDKSDK的下载地址 http://open.weibo.com/wiki/SDK,包括很多平台的封装,其中就有android版本的。下载后,请务必读一下SDK文档,运行其中自带的demo,对sdk的使用有个大概的了解。发送
作者 | 周萝卜最近在研究用 Python 来制作各个类别的机器人,今天先来分享一个自动发布新浪的机器人。基本思路 其实要实现一个简单的自动发布机器人还是不难的,只需要每天按时找好要发布的素材(一般就是爬虫了),然后再通过开放出来的 API 接口,自动发布即可。素材对于素材,我这里选取的是金山词霸的每日一句英语,我们可以爬取该网站的相关信息来组成我们的素材。http://
一、起因最近几天陈情令大火,而#肖战#王一等人也成为众人所熟知的对象,所以我想用Scrapy爬取演员的信息来分析下演员信息二、 目标本次爬取的的公开基本信息,如用户昵称、头像、用户的关注、粉丝列表以及发布的等,这些信息抓取之后保存至Mysql,并绘制出图表三、准备工作请确保代理池、Cookies池已经实现并可以正常运行,安装Scrapy、PyMysql库。这里我新注册了四个
我们要做一个高性能的系统,要具备一个低延迟、高实时性,要做到高实时性这是核心的价值,实时性的核心就是让数据离CPU最近,避免磁盘的 IO。我们看淘宝核心系统专家余锋说过的一句话“CPU访问L1就像从书桌拿一本书,L2是从书架拿一本书,L3是从客厅桌子上拿一本书,访问主存就像骑车去社区图书馆拿一书”。我们如果要做到非常实时的话,我们就需要把数据尽量离CPU节点最近。所以我们看一下cache设
   相信大家都有了,作为一个技术人员,往往关注的不是明星,而是技术。现在很火,底层技术是如何实现的呢,最近 在网上看到一篇文章,是关于底层技术的架构,和大家分享一下。    很多技术人员对的构架非常感兴趣,就是一个明星他有300万粉丝,这个技术怎么来实现?今天在这里跟大家分享一下的底层机构,让大家对的底层技术有更
这次的项目 和文件都放到了 github 上 https://github.com/poiu1235/weibo-catch:有兴趣的可以follow一下,或者点个赞咯我这里采用的深度挖掘的方式:没有设定爬取的边界(这个以后是要考虑的)大致的思路是,用自己的 账号登陆后,获取自己的列表和朋友列表。然后根据朋友列表然后在爬取对方的列表和朋友列表。这样不断的深度挖掘和遍历的过程过程中
转载 2023-09-14 09:46:21
74阅读
fiddler 之前了解了一些常见到的反爬措施,JS加密算是比较困难,而的登录中正是用JS加密来反爬,今天来了解一下。分析过程首先我们去抓包,从登录到首页加载出来的过程。我们重点关注一下登录操作,其次是首页的请求,登录一般是POST请求。我们搜索一下: 得知登录的url为https://login.sina.com.cn/sso/login.php?client=sso
新浪的数据可是非常有价值的,你可以拿来数据分析、拿来做网站、甚至是*。不过很多人由于技术限制,想要使用的时候只能使用复制粘贴这样的笨方法。没关系,现在就教大家如何批量爬取的数据,大大加快数据迁移速度!我们使用到的是第三方作者开发的爬虫库weiboSpider(有工具当然要用工具啦)。这里默认大家已经装好了Python,如果没有的话可以看我们之前的文章:Python详细安装指南。1. 下载项
# 采集新浪Python实践 ## 引言 在当今社交媒体的时代,已经成为了人们获取信息和交流的重要平台之一。为了分析和了解用户行为、舆情等,我们需要采集上的数据。Python作为一种简单易用的编程语言,提供了很多强大的工具和库,可以帮助我们实现这样的数据采集任务。 本文将介绍如何使用Python采集新浪的内容,并通过代码示例来让读者理解和实践这一过程。 ## 准备工作
原创 10月前
59阅读
13.13 Scrapy 爬取新浪前面讲解了 Scrapy 中各个模块基本使用方法以及代理池、Cookies 池。接下来我们以一个反爬比较强的网站新浪为例,来实现一下 Scrapy 的大规模爬取。1. 本节目标本次爬取的目标是新浪用户的公开基本信息,如用户昵称、头像、用户的关注、粉丝列表以及发布的等,这些信息抓取之后保存至 MongoDB。2. 准备工作请确保前文所讲的代理池、Co
转载 2023-07-01 11:20:09
195阅读
      首先说一下我这个的实现思路,登录支持多个账号,也就是说可以保存多个账号登录的时候选择其中一个登录。多个账号信息保存在sqlite的数据库中,每一个账号信息就是一条记录, 当用户启动博客户端的时候去取保存在sqlite数据库中的账号记录信息,然后把这些在界面中以列表的形式展示出来,用户可以点击其中的一个账号进入微,如果如果启动博客户端的时候检查到s
最近要做个课程设计,使用控制树莓派,树莓派再控制发光二极管的亮和灭,主要设计分两层,上层是用Java调用新浪API来实现对旳监听,当我的被回复时能够自动读取评论内容,并根据评论的指令内容来决定树莓派的控制动作。下层是用C语言调用操作系统底层接口来实现用树莓派GPIO接口控制发光二极管的闪烁、亮灭。由于网上教程都很老了,最近接口发生了很多变化,所以我决定全新写一篇详细的文,如若
原创 精选 2015-05-29 15:36:06
3820阅读
1评论
写在前面时光飞逝,距离爬虫这个项目及系列文章 超级爬虫 第一次发布已经过去将近两年了,最开始,我也没想到,会维护这个项目如此之久。项目更新过很多次,从代码到文章,熬过夜,也废过食,还好一直有读者反馈,也有不少点赞支持的粉丝,这些大概都是维护这个项目的动力来源。这一年,完成了从一名学生到大厂工程师的转变,自由支配的时间少了许多;有感于大家的热情咨询,这一两周抽空,完成了 2021 年最新版
新浪头条文章在去年12月底正式上线,使用头条文章可以让长文在信息流中以更醒目的方式呈现,编辑效果和打开速度也将提升,从而优化用户的阅读体验。 新浪头条文章发布方法: 1、登录新浪,打开首页; 2、点击【头条文章】; 3、打开每天有不计其数的主会在上发表头条文章,那么网页版怎么发布头条文章?今天的视频就来为大家解答一下,一起来看看吧。1、新浪头条文章发布后需要通过新浪收藏进
实现一个内容系统的问答排名,了解一下几个经典的算法hacker news的排名算法hacker news上面的热度排名多年以来能够很好的反映绝大多数用户的喜好,热度比较高的的文章也不会一直出现在前列,从而导致没有新的内容被关注,他们会按照文章的票数多少和发布时间对文章进行一些逻辑处理得到对应的热度排序。Score=(P−1)(T+2)G S
http://book.51cto.com/art/201310/412836.htm短短几年时间新浪的用户数就从零增长到数亿,明星用户的粉丝数达数千万,围绕着新浪正在发展一个集社交、媒体、游戏、电商等多位一体的生态系统。同大多数网站一样,新浪也是从一个小网站发展起来的。简单的LAMP(Linux+Apache+MySQL+PHP)架构,支撑起最初的新浪,应用程序用PHP开发,所有
  • 1
  • 2
  • 3
  • 4
  • 5