俗话说”巧妇难为无米之炊”。如果你是一个数据忍者,却因为没有数据而烦恼,这卷”数据通灵术”或许是你需要的。首先你要看透术名那华丽的外衣,它的真面目是:爬虫技巧。
此卷通灵术包含了爬虫的基础入门术,动态加载破解术,登陆破解术,以及额外赠送的手机APP爬取篇。
爬虫简介
简单来说,爬虫就是从网上自动下载网页,经过解析处理得到你想到要的数据。 这里的步骤和关键词有两个: 下载, 解析。本文的所有技巧也都是围绕这个两个关键词。
入门篇
大多数的爬虫都是爬取网页上的数据。新手入门,就先搞清楚网页到底是什么。网页的源代码其实就是纯文本,包含了HTML, CSS 和 JavaScript 。
HTML: 标记语言,只有语法,没有变量和逻辑,不能称之为编程语言。
CSS: 层叠样式表,控制元素的展现形式
JavaScript: 脚本语言,可以动态操作HTML中元素的增删改
一般来说,数据是在HTML元素中(否则你看不见它)。详细的HTML介绍可以参考W3School的 HTML 教程。
下载术
在R语言或Python中下载网页是很简单的。以下的两行代码,使用R的readLines
函数读取了豆瓣电影 Top 250 的网页源码:
html_lines = readLines('https://movie.douban.com/top250')
doc = paste0(html_lines, collapse = '')
其他的R包也有类似的函数,如RCurl::getURL
和httr::GET
。Python中的标配是requests模块。读文档,不细讲。
解析术
下载后的纯文本是类似下边的HTML标签,然而你需要的只是电影名称。
<a href="https://movie.douban.com/subject/1292052/" class="">
<span class="title">肖申克的救赎</span>
<span class="title"> / The Shawshank Redemption</span>
<span class="other"> / 月黑高飞(港) / 刺激1995(台)</span>
</a>
解析术就是将所需数据抽取出来的技巧。接下来介绍三种方法: 正则表达式,Xpath 和 CSS选择器。这些技巧都是通用的,基本不需要考虑编程语言的选择,都会支持的。
正则表达式
正则表达式是通过描述文本规则来达到抽取目的。承接上文的豆瓣电影,使用正则来抽取电影名字:
# 匹配包含class="title"字符的行 无关正则
title_lines = grep('class="title"', html_lines, value = T)
# 用正则抽取>字符和<字符中间的字符
titles = gsub('.*>(.*?)<.*', '\\1', title_lines, perl = T)
如果想看看第二行的效果,可以试试下边的代码:
gsub('.*>(.*?)<.*', '\\1',
'<span class="title">肖生克的救赎</span>', perl = T)
其中.*>(.*?)<.*
是一个正则表达式,其匹配规则如下图所示。
这个例子包含了正则中的通配符,贪婪匹配和懒惰匹配,以及分组的概念。看你骨骼惊奇,送你这本正则表达式30分钟入门教程秘籍。学成归来之后,再来读读R语言中的正则表达式吧。
XPath
XPath是XML路径语言,适用于HTML和XML这两种标记语言。了解HTML的树状结构之后,便自可得其精髓。
下边的代码使用xml2::read_html
函数解析下载的网页源代码,接下来使用XPath语言寻找所有包含 class="title"
属性的span标签。
library(xml2)
dom = read_html(doc)
title_nodes = xml_find_all(dom, './/span[@class="title"]')
xml_text(title_nodes)
[1] "肖申克的救赎"
[2] "The Shawshank Redemption"
[3] "这个杀手不太冷"
[4] "Léon"
[5] "霸王别姬"
[6] "阿甘正传"
......
深入学习XPath可参考HTML DOM 教程和XPath 教程。
CSS选择器
CSS选择器是通过标签的CSS属性达到筛选的目的。类似于XPath,它同样需要先将纯文本解析成DOM文档,再进行选择操作。
这里借用rvest
包来实现,筛选出class="title"
的标签并拿到标签内的文本。
library(rvest)
read_html(doc) %>%
html_nodes('.title') %>% # class="title"的标签
html_text()
读读CSS 元素选择器教程,可以学到更多用法。另外,这个一边学一边练习的小网站也很带感呢。
三种技巧相比之下,XPath和CSS选择器明显简单易用,但它们只适用于HTML和XML文档。正则表达式虽然规则复杂,但及其强大。利剑在手,任君选择。
工具破解篇
掌握前文提到的下载函数和解析术,就足以抓取大部分的网页了。但江湖险恶,网页叵测,你很可能会遇到以下常见的问题:
在网页中看到的数据,下载后看不到了?(动态加载数据)
数据分散在多个网页,但没有列表页也不知道网页链接的生成规则,难以遍历抓取
需要登录才有查看权限,没办法直接下载(登录验证)
接下来就介绍一些工具和技巧,一一破解上述问题。
破解动态加载数据
当你下载网页得到正常的结果(status code等于200),却看不到想要的数据时,那么它通常都不在原始的HTML网页中,是通过二次请求得到。
判断数据是否包含在HTML网页中的方法很简单:在Chrome浏览器下打开网页后,右键,点击”查看源代码”(View Page Source),搜索是否有你想到的数据。
如果没有,调出Chrome的开发者模式(结印Ctrl + Shift + I
,或者Mac上的Cmd + Opt + I
),并切换到Network
选项卡。再次访问网页,就可以看到网页加载过程的所有请求。其中包含了HTML文件,js文件和cc文件,以及可能的图片和音视频文件等。接下来就是一个个查看这些请求的Response,寻找数据是从哪个请求中返回的。
比如这篇COS访谈第31期: Charles Stein博文的评论,是通过iframe加载得到的:
因此直接访问https://d.cosx.org/embed/419227-cos-31-charles-stein就可以拿到该博客的评论了。
如果你想亲自练练手,这个莆田医院分布图展示了莆田医院在中国各省市的分布,其中医院的列表是通过Ajax加载得到的。试试看能否找到那个链接?
遍历
通常来说,需要爬取的信息都分散在不同的页面,可以通过列表页的链接到达。比如新闻和简历的抓取。
然而有时候并没有一个明显的列表页面,只能通过点击得到动态的列表。这种情况下,列表的数据一般也是通过Ajax加载得到的。比如这个东风标志的经销商页面,目标是搜集所有经销商的地址,经纬度和电话等信息。而每个经销商的信息都散落在各自的详情页,比如这个页面。有兴趣的读者可以自行钻研,再查看接下来的答案。
使用Chrome的开发者模式探索网站后,可以找出以下的步骤和接口:
访问首页,抓取省市和响应的数字编码,比如北京市对应3361,河北省对应3363。
根据省的数字编码,获取市区的数据编码。比如河北省各市的数字编码:http://dealer.peugeot.com.cn/ajax.php?pid=3363&action=city。查看源码可以看到石家庄市的数字编码是3394。
根据市区的数字编码,抓该市的经销商列表。比如石家庄市的两家经销商:http://dealer.peugeot.com.cn/ajax.php?cid=3394&action=dealer。从中可以拿到两个对应的字符编码,河北盛威汽车贸易有限公司的编码是 HBSWQCMYYXGS。
由经销商的编码,进入到该经销商的详情页: http://dealer.peugeot.com.cn/dealer/HBSWQCMYYXGS。接下来就使用解析术抽取响应的地址和电话等信息即可。提示,地图中的经纬度数据,可以搜索在源码中搜索 BMap.Point 看到。
# 部分网页源代码: 城市和相应的编码
<option value="3361">北京市</option>
<option value="3362">天津市</option>
<option value="3363">河北省</option>
最后,将4步串接起来,前三步可以拿到所有经销商列表和相应的编码,最后遍历所有的详情页抓取详细信息即可。
破解登陆状态
某些网站的信息会要求登录后才有权限查看。当你填完表单,点击登录时,浏览器的背后会发送一个POST请求,将你的用户名和密码发送到服务器进行验证。通过验证后,会在你的浏览器中存下Cookie来记录登录状态,后续的请求中只要带上这个Cookie就不需要再次登录。
因为要破解登录状态验证,最直接的方法就是模拟发送POST请求,拿到权限。然而模拟登陆是一个极有对抗性的话题,简单的网站或许就是一个POST请求。而复杂的网站如新浪微博,登陆过程可能经过层层加密,多个请求前后依赖,少一步都不可。因此更简单的方法是,在浏览器中登录,再拿相应的Cookie到脚本里直接用。
说来复杂,但操作简单。你需要的,只是这套提取Cookie和模拟网页请求的利器组合: Chrome + CurlWget + uncurl/ curl2r。
CurlWget
CurlWget是一个将浏览器请求转换为curl或者wget命令的工具(curl和wget是两个终端下常用的浏览器)。通过它你可以拨开浏览器的外衣,看到一个网络请求的真面目:访问的url地址,携带的Cookie和Header的配置。
具体操作是,在Network选项卡里选中某个请求,右键,单击Copy
->Copy as cURL
。如图,单击后,该请求的curl命令便存贮在粘贴板里了。
接下来在命令行中,直接粘贴命令并运行即可(据说看到数据在滚动时很有黑客的感觉,但我们是忍者,怎么能因为这个就沾沾自喜?)。
uncurl & curl2r
uncurl和curl2r分别是将刚刚的curl命令转化为Python命令和R命令的工具。因为在抓取后我们通常需要做进一步的解析,这时候使用Python或R会方便做进一步的处理。
其用法很简单,在浏览器中点击”Copy as cURLs”之后,在终端运行下面的命令即可。
$ uncurl "拷贝进来curl的命令"
requests.get("http://weibo.com/u/xxxxxxxxx/home?topnav=1&wvr=5",
headers={
"Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8",
"Accept-Encoding": "gzip, deflate, sdch",
"Accept-Language": "zh-CN,zh;q=0.8,en;q=0.6,de;q=0.4",
"Cache-Control": "no-cache",
"Connection": "keep-alive",
"DNT": "1",
"Pragma": "no-cache",
"Upgrade-Insecure-Requests": "1",
"User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_10_5) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.98 Safari/537.36"
},
cookies={
"xxxxxx": "xxxxx", # 我是不会暴露自己的cookie的...
"_s_tentry": "login.sina.com.cn",
"wvr": "6"
},
)
其中第一个参数是微博主页的链接(涉及到的微博ID已打码);接下来的headers中包含了一些请求参数,如”Accept”代表接受返回的数据类型(包括HTML和image等),”User-Agent”是使用的设备和浏览器版本等;cookies里则是当前网站在浏览器中存下的数据,可能记录了你的登录状态和浏览轨迹等,通常是经过加密的,属于隐私数据。
curl2r的示例不再展示,可到Github的项目上查看。此术虽然方便,但需牢记,不可泄漏你的Cookie信息。
手机APP篇
移动互联网的兴起,导致一些企业着重APP应用,却不提供PC端的网站服务。对于手机APP而言,比较难查看流量请求。虽然也有对应的软件,但据我所知好用的都是收费的。而且难以通用在安卓和IOS两大平台。
这里介绍另一个工具: Charles。通过它,可以在PC端开启一个代理,把手机设备设置通过代理上网,所有HTTP(S)流量都会在该软件中一览无余。Charles是一款免费,且在Windows,Mac和Linux上通用的跨平台软件。不论任何手机型号都可以连接Charles代理,可以说是很完美的解决方案了。
安装并开启Charles后,可以在Help
-> Local IP Address
里查看本级IP地址。接下来用手机接入同一个WIFI,填入Charles的IP地址和8888端口,配置HTTP代理。
配置成功后,手机访问的HTTP(S)流量便会在Charles中展示出来。如需查看HTTPS的流量,需要安装SSL证书,并在Proxy
-> SSL Proxying Settings...
中设置添加信任的网站列表。
如下图,将 appi.51talk.com 添加到信任列表后,打开51talk的APP时可以看到收藏的英语外教列表。右侧的Response中展示了老师的姓名,头像链接,口音链接和得分等。切换到Overview标签栏,就可以看到相应的接口地址和其他请求参数。
如果想练练手的话,可以试试查看国际版微博。最后你会发现接口极其简单,只要拿到一个密匙,就可以直接在电脑端直接访问接口。没有任何User Agent或者Cookie的验证。
最后,此术只能查看HTTP(S)的流量。不要试图用它偷窥微信和支付宝等涉及支付的机密APP。
结语
掌握以上术式后,你的数据召唤术已达到中忍级别。且容在下多嘴一句,不要短时间内高频率的爬。如果给网站服务器造成压力,你离被封杀也就不远了。友好的爬虫是KPI提升的重要组成部分,你好我好,大家好。
发表/查看评论