python爬虫之爬取百度音乐的实现方法


Posted in Python onAugust 24, 2019

在上次的爬虫中,抓取的数据主要用到的是第三方的Beautifulsoup库,然后对每一个具体的数据在网页中的selecter来找到它,每一个类别便有一个select方法。对网页有过接触的都知道很多有用的数据都放在一个共同的父节点上,只是其子节点不同。在上次爬虫中,每一类数据都要从其父类(包括其父节点的父节点)上往下寻找ROI数据所在的子节点,这样就会使爬虫很臃肿,因为很多数据有相同的父节点,每次都要重复的找到这个父节点。这样的爬虫效率很低。

因此,笔者在上次的基础上,改进了一下爬取的策略,笔者以实例来描述。

python爬虫之爬取百度音乐的实现方法

如图,笔者此次爬取的是百度音乐的页面,所爬取的类容是上面榜单下的所有内容(歌曲名,歌手,排名)。如果按照上次的爬虫的方法便要写上三个select方法,分别抓取歌曲名,歌手,排名,但笔者观察得知这三项数据皆放在一个li标签内,如图:

python爬虫之爬取百度音乐的实现方法

这样我们是不是直接抓取ul标签,再分析其中的数据便可得到全部数据了?答案是,当然可以。

但Beaufulsoup不能直接提供这样的方法,但Python无所不能,python里面自带的re模块是我见过最迷人的模块之一。它能在字符串中找到我们让我们roi的区域,上述的li标签中包含了我们需要的歌曲名,歌手,排名数据,我们只需要在li标签中通过re.findall()方法,便可找到我们需要的数据。这样就能够大大提升我们爬虫的效率。

我们先来直接分析代码:

def parse_one_page(html): 
 soup = BeautifulSoup(html, 'lxml') 
 data = soup.select('div.ranklist-wrapper.clearfix div.bd ul.song-list li') 
 pattern1 = re.compile(r'<li.*?<div class="index">(.*?)</div>.*?title="(.*?)".*?title="(.*?)".*?</li>', re.S) 
 pattern2 = re.compile(r'<li.*?<div class="index">(.*?)</div>.*?title="(.*?)".*?target="_blank">(.*?)</a>', re.S) 
 
 wants = [] 
 for item in data: 
  # print(item) 
  final = re.findall(pattern1, str(item)) 
  if len(final) == 1: 
   # print(final[0]) 
   wants.append(final[0]) 
  else: 
   other = re.findall(pattern2, str(item)) 
   # print(other[0]) 
   wants.append(other[0]) 
 return wants

上面的代码是我分析网页数据的全部代码,这里不得不说python语言的魅力,数十行代码便能完成java100行的任务,C/C++1000行的任务。上述函数中,笔者首先通过Beautifulsoup得到该网页的源代码,再通过select()方法得到所有li标签中的数据。

到这里,这个爬虫便要进入到最重要的环节了,相信很多不懂re模块的童靴们有点慌张,在这里笔者真的是强烈推荐对python有兴趣的童靴们一定要学习这个非常重要的一环。首先,我们知道re的方法大多只针对string型数据,因此我们调用str()方法将每个list中的数据(即item)转换为string型。然后便是定义re的pattern了,这是个稍显复杂的东西,其中主要用到re.compile()函数得到要在string中配对的pattern,这里笔者便不累述了,感兴趣的童靴可以去网上查阅一下资料。

上述代码中,笔者写了两个pattern,因为百度音乐的网页里,li标签有两个结构,当用一个pattern在li中找不到数据时,便使用另一个pattern。关于re.findadd()方法,它会返回一个list,里面装着tuple,但其实我们知道我们找到的数据就是list[0],再将每个数据添加到另一个List中,让函数返回。

相信很多看到这里的小伙伴已经云里雾里,无奈笔者对re板块也知道的不多,对python感兴趣的同学可以查阅相关资料再来看一下代码,相信能够如鱼得水。

完整的代码如下:

import requests 
from bs4 import BeautifulSoup 
import re 
 
 
def get_one_page(url): 
 wb_data = requests.get(url) 
 wb_data.encoding = wb_data.apparent_encoding 
 if wb_data.status_code == 200: 
  return wb_data.text 
 else: 
  return None 
 
 
def parse_one_page(html): 
 soup = BeautifulSoup(html, 'lxml') 
 data = soup.select('div.ranklist-wrapper.clearfix div.bd ul.song-list li') 
 pattern1 = re.compile(r'<li.*?<div class="index">(.*?)</div>.*?title="(.*?)".*?title="(.*?)".*?</li>', re.S) 
 pattern2 = re.compile(r'<li.*?<div class="index">(.*?)</div>.*?title="(.*?)".*?target="_blank">(.*?)</a>', re.S) 
 
 wants = [] 
 for item in data: 
  # print(item) 
  final = re.findall(pattern1, str(item)) 
  if len(final) == 1: 
   # print(final[0]) 
   wants.append(final[0]) 
  else: 
   other = re.findall(pattern2, str(item)) 
   # print(other[0]) 
   wants.append(other[0]) 
 return wants 
 
 
if __name__ == '__main__': 
 url = 'http://music.baidu.com/' 
 html = get_one_page(url) 
 data = parse_one_page(html) 
 for item in data: 
  dict = { 
   '序列': item[0], 
   '歌名': item[1], 
   '歌手': item[2] 
  } 
  print(dict)

最后我们看到的输出结果如下:

python爬虫之爬取百度音乐的实现方法

好了,笔者今天就到这里了。希望喜欢python的萌新能够快速实现自己的spider,也希望一些大神们能够看到这篇文章时不吝赐教。

以上这篇python爬虫之爬取百度音乐的实现方法就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持三水点靠木。

Python 相关文章推荐
2款Python内存检测工具介绍和使用方法
Jun 01 Python
Python使用scrapy采集时伪装成HTTP/1.1的方法
Apr 08 Python
Python pass详细介绍及实例代码
Nov 24 Python
Python正则简单实例分析
Mar 21 Python
Python编程实现控制cmd命令行显示颜色的方法示例
Aug 14 Python
高质量Python代码编写的5个优化技巧
Nov 16 Python
一篇文章快速了解Python的GIL
Jan 12 Python
python批量修改图片后缀的方法(png到jpg)
Oct 25 Python
Python3爬虫学习之将爬取的信息保存到本地的方法详解
Dec 12 Python
python 定时器,实现每天凌晨3点执行的方法
Feb 20 Python
解决django migrate报错ORA-02000: missing ALWAYS keyword
Jul 02 Python
python re的findall和finditer的区别详解
Nov 15 Python
python3 实现爬取TOP500的音乐信息并存储到mongoDB数据库中
Aug 24 #Python
python处理自动化任务之同时批量修改word里面的内容的方法
Aug 23 #Python
解决在pycharm运行代码,调用CMD窗口的命令运行显示乱码问题
Aug 23 #Python
简单分析python的类变量、实例变量
Aug 23 #Python
python3 selenium自动化 frame表单嵌套的切换方法
Aug 23 #Python
python-Web-flask-视图内容和模板知识点西宁街
Aug 23 #Python
python3 selenium自动化测试 强大的CSS定位方法
Aug 23 #Python
You might like
WindowsXP中快速配置Apache+PHP5+Mysql
2008/06/05 PHP
PHPwind整合最土系统用户同步登录实现方法
2010/12/08 PHP
php图片缩放实现方法
2014/02/20 PHP
windows的文件系统机制引发的PHP路径爆破问题分析
2014/07/28 PHP
php查询mysql大量数据造成内存不足的解决方法
2015/03/04 PHP
PHP两种实现无级递归分类的方法
2017/03/02 PHP
PHP微信PC二维码登陆的实现思路
2017/07/13 PHP
arguments对象
2006/11/20 Javascript
JavaScript CSS 修改学习第四章 透明度设置
2010/02/19 Javascript
通过js简单实现将一个文本内容转译成加密文本
2013/10/22 Javascript
js禁止回车提交表单的示例代码
2013/12/23 Javascript
javascript检测是否联网的实现代码
2014/09/28 Javascript
生成二维码方法汇总
2014/12/26 Javascript
JS实现控制表格单元格垂直对齐的方法
2015/03/30 Javascript
jquery.cookie实现的客户端购物车操作实例
2015/12/24 Javascript
jQuery实现选项卡功能(两种方法)
2017/03/08 Javascript
angular4中引入echarts的方法示例
2019/01/29 Javascript
Vue 监听元素前后变化值实例
2020/07/29 Javascript
在vue-cli3中使用axios获取本地json操作
2020/07/30 Javascript
python中实现php的var_dump函数功能
2015/01/21 Python
用Python编写生成树状结构的文件目录的脚本的教程
2015/05/04 Python
Python 通过pip安装Django详细介绍
2017/04/28 Python
浅谈Python中的可变对象和不可变对象
2017/07/07 Python
从DataFrame中提取出Series或DataFrame对象的方法
2018/11/10 Python
python爬虫之urllib库常用方法用法总结大全
2018/11/14 Python
python3操作注册表的方法(Url protocol)
2020/02/05 Python
python3实现飞机大战
2020/11/29 Python
Bally澳大利亚官网:瑞士奢侈品牌
2018/11/01 全球购物
全球性的奢侈品梦工厂:Forzieri(福喜利)
2019/02/20 全球购物
HashMap和Hashtable的区别
2013/05/18 面试题
爱心活动计划书
2014/04/26 职场文书
银行主办会计岗位职责
2014/08/13 职场文书
股东出资证明书(正规版)
2014/09/24 职场文书
一年级下册数学教学反思
2016/02/16 职场文书
公司晚会主持词
2019/04/17 职场文书
python实现剪贴板的操作
2021/07/01 Python