python爬虫利器之requests库的用法(超全面的爬取网页案例)


Posted in Python onDecember 17, 2020

requests库

利用pip安装:
pip install requests

基本请求

req = requests.get("https://www.baidu.com/")
req = requests.post("https://www.baidu.com/")
req = requests.put("https://www.baidu.com/")
req = requests.delete("https://www.baidu.com/")
req = requests.head("https://www.baidu.com/")
req = requests.options(https://www.baidu.com/)

1.get请求

参数是字典,我们可以传递json类型的参数:

import requests
from fake_useragent import UserAgent#请求头部库
headers = {"User-Agent":UserAgent().random}#获取一个随机的请求头
url = "https://www.baidu.com/s"#网址
params={
  "wd":"豆瓣"  #网址的后缀
}

requests.get(url,headers=headers,params=params)

python爬虫利器之requests库的用法(超全面的爬取网页案例)

返回了状态码,所以我们要想获取内容,需要将其转成text:

#get请求

headers = {"User-Agent":UserAgent().random}
url = "https://www.baidu.com/s"
params={
  "wd":"豆瓣"
}

response = requests.get(url,headers=headers,params=params)
response.text

2.post 请求

参数也是字典,也可以传递json类型的参数:

import requests 
from fake_useragent import UserAgent

headers = {"User-Agent":UserAgent().random}

url = "https://www.baidu.cn/index/login/login" #登录账号密码的网址
params = {
  "user":"1351351335",#账号
  "password":"123456"#密码
}

response = requests.post(url,headers=headers,data=params)
response.text

python爬虫利器之requests库的用法(超全面的爬取网页案例)

因为这里需要一个登录的网页,我这里就随便用了一个,没有登录,所以显示的结果是这样的,如果想要测试登录的效果,请找一个登录的页面去尝试一下。

3.IP代理

采集时为避免被封IP,经常会使用代理,requests也有相应 的proxies属性。

#IP代理

import requests 
from fake_useragent import UserAgent

headers = {"User-Agent":UserAgent().random}
url = "http://httpbin.org/get" #返回当前IP的网址

proxies = {
  "http":"http://yonghuming:123456@192.168.1.1:8088"#http://用户名:密码@IP:端口号
  #"http":"https://182.145.31.211:4224"# 或者IP:端口号
}

requests.get(url,headers=headers,proxies=proxies)

代理IP可以去:快代理去找,也可以去购买。
http://httpbin.org/get。这个网址是查看你现在的信息:

python爬虫利器之requests库的用法(超全面的爬取网页案例)

4.设置访问超时时间

可以通过timeout属性设置超时时间,一旦超过这个时间还没获取到响应内容,就会提示错误。

#设置访问时间
requests.get("http://baidu.com/",timeout=0.1)

python爬虫利器之requests库的用法(超全面的爬取网页案例)

5.证书问题(SSLError:HTTP)

ssl验证。

import requests 
from fake_useragent import UserAgent #请求头部库

url = "https://www.12306.cn/index/" #需要证书的网页地址
headers = {"User-Agent":UserAgent().random}#获取一个随机请求头

requests.packages.urllib3.disable_warnings()#禁用安全警告
response = requests.get(url,verify=False,headers=headers)
response.encoding = "utf-8" #用来显示中文,进行转码
response.text

python爬虫利器之requests库的用法(超全面的爬取网页案例)

6.session自动保存cookies

import requests
from fake_useragent import UserAgent

headers = {"User-Agent":UserAgent().chrome}
login_url = "https://www.baidu.cn/index/login/login" #需要登录的网页地址
params = {
  "user":"yonghuming",#用户名
  "password":"123456"#密码
}
session = requests.Session() #用来保存cookie

#直接用session 歹意requests 
response = session.post(login_url,headers=headers,data=params)

info_url = "https://www.baidu.cn/index/user.html" #登录完账号密码以后的网页地址
resp = session.get(info_url,headers=headers)
resp.text

因为我这里没有使用需要账号密码的网页,所以显示这样:

python爬虫利器之requests库的用法(超全面的爬取网页案例)

我获取了一个智慧树的网页

#cookie 

import requests
from fake_useragent import UserAgent

headers = {"User-Agent":UserAgent().chrome}
login_url = "https://passport.zhihuishu.com/login?service=https://onlineservice.zhihuishu.com/login/gologin" #需要登录的网页地址
params = {
  "user":"12121212",#用户名
  "password":"123456"#密码
}
session = requests.Session() #用来保存cookie

#直接用session 歹意requests 
response = session.post(login_url,headers=headers,data=params)

info_url = "https://onlne5.zhhuishu.com/onlinWeb.html#/stdetInex" #登录完账号密码以后的网页地址
resp = session.get(info_url,headers=headers)
resp.encoding = "utf-8"
resp.text

python爬虫利器之requests库的用法(超全面的爬取网页案例)

7.获取响应信息

代码 含义
resp.json() 获取响应内容 (以json字符串)
resp.text 获取相应内容(以字符串)
resp.content 获取响应内容(以字节的方式)
resp.headers 获取响应头内容
resp.url 获取访问地址
resp.encoding 获取网页编码
resp.request.headers 请求头内容
resp.cookie 获取cookie

到此这篇关于python爬虫利器之requests库的用法(超全面的爬取网页案例)的文章就介绍到这了,更多相关python爬虫requests库用法内容请搜索三水点靠木以前的文章或继续浏览下面的相关文章希望大家以后多多支持三水点靠木!

Python 相关文章推荐
Django中URLconf和include()的协同工作方法
Jul 20 Python
利用Python脚本实现ping百度和google的方法
Jan 24 Python
Python 和 JS 有哪些相同之处
Nov 23 Python
python3利用Dlib19.7实现人脸68个特征点标定
Feb 26 Python
python实现Excel文件转换为TXT文件
Apr 28 Python
安装docker-compose的两种最简方法
Jul 30 Python
Python 一键获取百度网盘提取码的方法
Aug 01 Python
Python爬虫实现HTTP网络请求多种实现方式
Jun 19 Python
浅谈Python中的继承
Jun 19 Python
基于Python爬取fofa网页端数据过程解析
Jul 13 Python
利用python+ffmpeg合并B站视频及格式转换的实例代码
Nov 24 Python
Python操作CSV格式文件的方法大全
Jul 15 Python
python使用smtplib模块发送邮件
Dec 17 #Python
python实现计算器简易版
Dec 17 #Python
利用Python实现自动扫雷小脚本
Dec 17 #Python
用python读取xlsx文件
Dec 17 #Python
Python实现自动整理文件的脚本
Dec 17 #Python
Python用access判断文件是否被占用的实例方法
Dec 17 #Python
Python实例教程之检索输出月份日历表
Dec 16 #Python
You might like
PHP提示Cannot modify header information - headers already sent by解决方法
2014/09/22 PHP
php上传文件常见问题总结
2015/02/03 PHP
php生成圆角图片的方法
2015/04/07 PHP
php+html5+ajax实现上传图片的方法
2016/05/14 PHP
php+jQuery递归调用POST循环请求示例
2016/10/14 PHP
PHP的RSA加密解密方法以及开发接口使用
2018/02/11 PHP
jQuery下的几个你可能没用过的功能
2010/08/29 Javascript
JS高级拖动技术 setCapture,releaseCapture
2011/07/31 Javascript
input输入框的自动匹配(原生代码)
2013/03/19 Javascript
jQuery控制Div拖拽效果完整实例分析
2015/04/15 Javascript
jQuery实现放大镜效果实例代码
2016/03/17 Javascript
BootStrap实现响应式布局导航栏折叠隐藏效果(在小屏幕、手机屏幕浏览时自动折叠隐藏)
2016/11/30 Javascript
flexslider.js实现移动端轮播
2017/02/05 Javascript
AngularJS中$http的交互问题
2017/03/29 Javascript
使用jQuery卸载全部事件的思路详解
2017/04/03 jQuery
Angular4 ElementRef的应用
2018/02/26 Javascript
angularJs在多个控制器中共享服务数据的方法
2018/09/30 Javascript
vue中监听返回键问题
2019/08/28 Javascript
基于iview-admin实现动态路由的示例代码
2019/10/02 Javascript
JS实现骰子3D旋转效果
2019/10/24 Javascript
微信小程序 scroll-view 实现锚点跳转功能
2019/12/12 Javascript
python实现Floyd算法
2018/01/03 Python
值得收藏,Python 开发中的高级技巧
2018/11/23 Python
Pandas之MultiIndex对象的示例详解
2019/06/25 Python
pandas中read_csv的缺失值处理方式
2019/12/19 Python
解决django接口无法通过ip进行访问的问题
2020/03/27 Python
你应该知道的Python3.6、3.7、3.8新特性小结
2020/05/12 Python
Python并发请求下限制QPS(每秒查询率)的实现代码
2020/06/05 Python
python安装及变量名介绍详解
2020/12/12 Python
CSS3实现复选框动画特效示例代码
2016/09/27 HTML / CSS
泰国综合购物网站:Lazada泰国
2018/04/09 全球购物
怀旧收藏品和经典纪念品:Betty’s Attic
2018/08/29 全球购物
巴西备受欢迎的服装和生活方式品牌:FARM Rio
2020/02/04 全球购物
牵手50台湾:专为黄金岁月的单身人士而设的交友网站
2021/02/18 全球购物
2015年医院科室工作总结范文
2015/05/26 职场文书
党员反腐倡廉学习心得体会
2015/08/15 职场文书