文章目录分析流程接口信息获取站点中文对应的英文字母(1)查询车票信息(2)查询车票价格信息(3)实现运行 分析流程12306上获取相关车票信息,输入的查询数据流向:用户进入官网时,前端向接口1发送GET请求得到站点中文对应英文字母信息用户在查询页面输入或选择出发地、目的地及相关参参数(包括出发日期、票的种类等),得到用户的出行信息利用步骤1得到的数据与用户出行的站点信息匹配,得到站点对应英文字母
   弱鸡代码,不喜轻喷。。。# 12306车次信息 # 浏览器发送请求(请求的url,请求的方式get/post,请求数据) # 服务器作出响应(响应状态码) # 服务器响应状态码:418,被发现是爬虫了哦 # 爬虫:模拟浏览器向服务器发送请求并处理响应结果 # 安装一个第三方模块 requests import requests import re # 使用正则表达式
转载 2023-06-27 11:33:05
244阅读
12306火车票余票查询器 比如想查9月2日从西安—北京动车和特快的余票tickets.py -dg 西安 北京 2017-09-02效果预览:首先我们梳理一下用到的工具:Python3.x(必备) requests库,用来进行http请求的访问 docopt库,用来实现命令行参数处理(使用方法) prettytable,使信息以好看的表格形式呈现出来 colorama,用来设置命令行中
python爬虫之12306网站--火车票信息查询思路:1.火车票信息查询是基于车站信息查询,先完成车站信息查询,然后根据车站信息查询生成的url地址去查询当前已知出发站和目的站的所有车次车票信息2.json文件存储当前从出发站到目的站的所有车次的详细信息3.对json文件进行分析4.分类查询车票(高铁、火车)1.json文件:在12306页面选择"车票"》"单程",打开"开发人员工具",然后输入
分析我们输入的上海,北京都变成了对应的编号,比如,上海(SHH)、北京(BJP),所以当我们程序进行输入的时候要进行一下处理,12306的一个地方存储着这些城市名与编码对应的文档:GET请求: https://kyfw.12306.cn/otn/resources/js/framework/station_name.js?station_version=1.8971 点击查询,通过F12找到接口:
思路:1.火车票信息查询是基于车站信息查询,先完成车站信息查询,然后根据车站信息查询生成的url地址去查询当前已知出发站和目的站的所有车次车票信息2.json文件存储当前从出发站到目的站的所有车次的详细信息3.对json文件进行分析4.分类查询车票(高铁、火车)1.json文件:在12306页面选择"车票"》“单程”,打开"开发人员工具",然后输入出发地、目的地 对json文件进行分析,发现是嵌套
Python312306车票信息第一次写爬虫,咱从入门级——12306车票 开始我们要的信息是https://www.12306.cn/index/上的车票信息当我们选择出发地和目的地,点击查询可以获得相关的车票信息,我们现在要将这些信息使用Python假如我输入出发地为武汉,目的地为广州,则查询结果如下 程序效果如下:找到车票数据的传输链接按下F12打开Google浏览器的开发者
转载 2023-10-03 18:01:40
103阅读
2019.5.25,今天用selenium+chromedriver做了一个12306抢票小爬虫,总共100+行代码,写的真费劲,看来还是没学到家,话不多说,首先看一下README: 12306抢票功能: 通过手动登录,手动填写出发地,目的地,出发日期,然后自动完成抢票 程序流程: - 1、首先进入登录界面(logging_page),然后等待用户登录。 - 2
在今天的博文中,我将分享如何使用 Python 携程的火车票数据。这个过程不仅对我个人的项目很有帮助,也许对你进行类似项目的时候同样有用。 ### 背景定位 在进行数据采集之前,我们需要明确我们的业务场景。在当今这个互联网时代,火车票的购买变得越来越方便,但人们总是希望能提前获取到最准确的票务信息,为他们的旅行计划提供支持。为了满足这一需求,我们需要构建一个爬虫程序,通过携程网站来获取相关
原创 5月前
103阅读
python爬虫之12306网站--火车票信息查询思路:1.火车票信息查询是基于车站信息查询,先完成车站信息查询,然后根据车站信息查询生成的url地址去查询当前已知出发站和目的站的所有车次车票信息2.json文件存储当前从出发站到目的站的所有车次的详细信息3.对json文件进行分析4.分类查询车票(高铁、火车)1.json文件:在12306页面选择"车票"》"单程",打开"开发人员工具",然后输入
转载 2023-07-01 16:48:57
341阅读
登录,查票,购买还没实现,并且我的方法也不是很理想,推荐给小白学习,并且我也是用最易懂的代码来写,所以说如果你是一位python爬虫小白的话,那这篇文章或许会帮到你,干货满满@2021-02-23日更新:各位小伙伴,是不是查询余票都特别困难了?12306升级后,直接使用开发者工具抓包得到的ajax链接直接照搬不管用了,除非是将原cookies加入头文件中,否则访问永远都是提示错误,其实这个很好解决
我们已经学习 urllib、re、BeautifulSoup 这三个库的用法。但只是停留在理论层面上,还需实践来检验学习成果。因此,本文主要讲解如何利用我们刚才的几个库去实战。1 确定目标任何网站皆可爬,就看你要不要而已。本次选取的目标是当当网,内容是 以 Python 为关键字搜索出来的页面中所有书籍的信息。具体如下图所示:点击查看大图本次结果有三项:图书的封面图片图书的书
转载 2023-09-06 06:53:01
184阅读
通过pythonSCDN论坛的标题,返回请求网址使用requests请求网址 lxml中etree请求数据 time延时 openpyxl保存再excel中网站共有100页数据,5000个论坛。我们可以输入的页数:运行代码:将数据储存在excel中:源代码如下:在这里插入代码片 # _*_ coding:utf _*_ # 人员:21292 #
转载 2023-07-01 00:19:47
247阅读
python取火车票网的时刻表数据导包import re,requests,datetime,time,json from prettytable import PrettyTable from colorama import init,Fore from pyquery import PyQuery as pq import random import pymysql.cursors导包遇到问
转载 2023-10-13 12:47:04
171阅读
前言:上一篇文章,采用接口的方法取到的文章数量只有十篇,但我们看到的文章却不止十篇,甚至点刷新之后会不断增加,而且之前的文章还存在,这说明虽然接口一次只传十条数据,但页面会将已接收的数据缓存到本地,增加到页面中,大概是这样。 接口的方法比较简单,只要将要传递的参数陈列分析出来,基本都能获取后台返回给前端的数据。不过很多网站的数据是找不到对应接口的,这时候就需要使用其他的方法来
转载 2024-02-07 09:55:55
237阅读
Python 实现火车票查询工具一. 实验介绍通过python3实现一个简单的命令行版本的火车票查询工具,用实际中的例子会更感兴趣,不管怎么样,既练习了又可以自己使用。1.  知识点:Python 基础知识的综合运用docopt, requests, colorama, prettytable 库的使用setuptools 的使用2. 效果截图:二. 接口设计接口我们就按照12306官网
1、根据搜索词下载百度图片:# -*- coding: utf-8 -*- """根据搜索词下载百度图片""" import re import sys import urllib import requests def get_onepage_urls(onepageurl): """获取单个翻页的所有图片的urls+当前翻页的下一翻页的url""" if not onep
转载 2018-10-08 20:32:00
93阅读
2评论
Python进行网页文字的代码:#!/usr/bin/python # -*- coding: UTF-8 -*- import requests import re # 下载一个网页 url = 'https://www.biquge.tw/75_75273/3900155.html' # 模拟浏览器发送http请求 response = requests.get(url) # 编码方式
爬虫主要包括三部分:1、获取url2、解析url中的内容,并想要的内容3、保存内容获取url可以直接复制想要抓取的网址,如果网页存在分页的情况,可以用for循环,如: for i in range(0,1): url = baseurl + str(i*25) baseurl就是基础网址,通过for循环实现多页的抓取。解析url解析可以用requests库基础实例1、get请求:r =
这是一次失败的尝试 , 事情是这样的……1.起因前段时间刚刚学完爬虫,于是准备找个项目练练手。因为想要了解一下“数据挖掘”的职位招聘现状,所以我打算对‘智联招聘’下手了。网上当然也有很多教程,但是套路基本就是那几种情况,看起来也不是特别困难,我充满信心地开始了尝试。2.分析网站数据使用工具:谷歌浏览器、pycharm首先利用谷歌浏览器查看网页源码,发现在源码里找不到职位信息,所以判断职位信息是通过
转载 2023-12-01 20:29:28
2阅读
  • 1
  • 2
  • 3
  • 4
  • 5