当前位置: 首页 安卓手游资讯 手游资讯

python多线程爬虫

零基础小白如何在最短的时间快速入门python爬虫

答:本文邀请feifan来回答,他总结了使用python自带库完成爬虫的方法,并且列出了爬虫在实际中可能遇到的几个问题,教会你零基础入门python爬虫~

此处的爬虫并不是百度或者google这样需要沿着某条路径采集互联网上所有信息的机器人,而是针对某个特定的网页,从中提取出我们需要的信息。比如我们在中关村上查到了一台手机的详情页,想把其中的cpu信息、操作系统、分辨率等等字段提出出来。即此处的爬虫是指针对特定网页结构、规模很小、抓取路径收敛的情况而言。下文我们以一个实例,看看如何从头写一个python爬虫。

抓取页面基本方法

浏览器中看到的页面,实际上是通过一系列的http请求加载并渲染服务器的资源。同理只要我们能够用python发出http请求,通过get或post的方法获得服务器返回的html片段、html页面或json数据串,就可以从中抓取到想要的内容。

python中对http请求的封装是在urllib和urllib2两个库里。

urllib提供了一些工具方法,用于对发送请求时的字符串进行转义或编码。

发送get/post请求则需要用到urllib2中提供的几个类

在掌握了如何在python中构造http请求后,下一步需要做的就是结合具体的网页,分析出web页面的请求方式、参数传递方式和必要的header信息(如cookie等)。chrome控制台的network分析基本上可以满足需求,但一款抓包利器无疑可以提升我们的效率。推荐使用fiddler进行抓包和解包,可以更清晰第看到http中所用的不同请求方式。

字符串查找、正则表达式、html解析

http请求的response通常包含两种:json字符串,或html代码片段,信息的提取就转变成了字符串处理。此时无论是通过字符串查找、正则表达式匹配,只要能定位到目标字段即可。

但更好的方法是对html的Dom树进行解析,尤其是存在多个目标字段需要抓取时,解析html的方式能够对特殊格式的字段信息进行批量解析。

这里使用python自带的htmlparser进行解析,htmlparser对html片段进行深度优先的遍历,在遍历的过程中可以识别出开始标签、结束标签和标签中的内容,因此提供了一种基于标签tag的编程方式。看下面的例子

需要提取手机的操作系统、核心数、cpu型号等信息,根据html的标签、属性名称,代码如下:

针对中关村上的某个手机详细

handle_data可以提取html标签中的数据,但handle_data存在两个问题。

(1)当标签内容为空时,handle_data自动跳过该标签。这里的标签为空是指标签中不包含任意字符串内容、不包含其他的子标签。注意,当标签中含有&nb等空白字符串时,handle_data可以解析出其中的data。比如以下结构中,电话号码一列允许为空,通过html_parser解析后只得到4个<td>的标签内容。

由于会跳过内容为空的标签的解析,就会打乱html的结构,由于数据的缺失返回的list长度不定,导致无法将list中每项内容与html中的内容对应起来。

(2)标签中包含子标签时,内容会被分割到不同的handle_data函数中,比如

由于handle_data是针对每个标签返回数据,以上的td里包含了一个span子标签,handle_data分为2次返回数据。即第一次调用handle_data返回状态:,第二次调用handle_data返回已拒绝。我们希望<td>标签中的内容作为整体返回,而现在被分割成了两块,同样会破坏结构。

解决以上两个问题的关键方法在于,使用cache缓存字符串,把对数据的处理从handle_data推迟到handle_endtag。只有遇到end_tag时,才能确定标签闭合,使数据完整。

爬虫被屏蔽后怎么办

服务器会通过一些策略屏蔽恶意爬虫,以避免对服务器资源的消耗,如检查同一IP的访问频率、访问间隔等。

所以我们也应该使用一些简单策略,使我们的爬虫看起来更像是人的行为,以绕开服务器的检测机制。常用的方法包括延长相邻请求的间隔,相邻间隔使用随机时长。

在请求的header字段中包含了user-agent字段,服务器通过检测user-agent字段确定客户端的类型。如果不指定user-agent字段,请求时脚本会默认填充该字段,如下图

#python中默认的user-agent字段

网上有一些说法user-agent的值会影响爬虫是否能够抓取web内容,为了避免爬虫被屏蔽,将user-agent的值设为浏览器的类型:Mozilla/5.0(WindowsNT6.1;WOW64)AppleWebKit/537.36(KHTML,likeGecko)Chrome/55.0.2883.87Safari/537.36

但在实际抓取的几个web站点中,user-agent的值对爬虫被屏蔽没有影响,在使用时不用刻意设置user-agent的值。

以上的方法都是避免爬虫被屏蔽掉。但万一很不幸爬虫已经被屏蔽了,发出请求返回的结果是输入验证码的页面,此时该如何解决呢?

对于支持https协议的站点,此时可以尝试的一种方案是:改用https协议。

项目中遇到爬虫被百度屏蔽的现象,尝试了很多方法都无效。后来将原来链接中的http协议换成https爬虫又开始工作了。原理虽然不清楚,但简单可行。

带验证码的登录

很多web内容只有在登录后才有权限访问,服务器通过创建session并下发sessionid来维持与客户端的链接状态。客户端在每次发送请求时,都在cookie中携带sessionid等字段信息。sessionid是无法复用的,也即在浏览器中登录后所获得的sessionid直接拿到python脚本中使用,返回的结果仍然是跳转到登录页面的。因为通过http下发的sessionid是捆绑到端口号的,也就是与服务器维持通信的是客户端上的某个进程,把浏览器中的sessionid拿到python脚本中,由于更换了进程sessionid当然失效了。

既然无法绕开登录,我们就在python脚本中完成登录的过程,拿到登录后返回的cookie、sessinoid等。这里有两个难点需要解决,1)服务器登录逻辑的分析与猜测;2)解决登录时存在的验证码识别问题。

登录除了需要post提交用户名、密码和sessionid之外,通常也会隐式提交部分参数,可以用chrome浏览器的调试模式查看post提交的参数及对应的值,登录成功之后,我们就可以拿到返回的cookie值了。

登录时的验证码可以通过OCR自动识别,尝试了google的tesseract-ocr准确率并不高。所以推荐手动输入验证码,帮助爬虫完成登录,毕竟授权只需要一次输入。

手动输入验证码的思路如下,在请求sessionid的同时保存验证码的图片,人工读取验证码的内容,与username和password一起提交。示例代码如下:

需要抓取javascript加载的结果

详细参考外部链接:

这篇文章中的思路是,通过使用webkitlibrary建立本地的javascript执行环境,模拟浏览器对页面的加载渲染,从而抓取javascript处理后的页面内容。

这个例子中javascript所加载的结果,也是通过ajax重新向服务器发起请求返回的,直接发送ajax请求并抓取结果即可。在本地搭建javascript的执行环境有些画蛇添足,但也是一种可以参考的思路。

本文总结了使用python自带库完成爬虫的方法,并且列出了爬虫在实际中可能遇到的几个问题,比如爬虫被屏蔽、需要输入验证码进行登录等。实践中的难点在于分析和猜测服务器的登录逻辑,并且提取必需的参数完成登录鉴权。

爬虫是什么为什么Python使用的比较多

首先您应该明确,不止Python这一种语言可以做爬虫,诸如PHP、Java、C/C++都可以用来写爬虫程序,但是相比较而言Python做爬虫是最简单的。下面对它们的优劣势做简单对比:

PHP:对多线程、异步支持不是很好,并发处理能力较弱;Java也经常用来写爬虫程序,但是Java语言本身很笨重,代码量很大,因此它对于初学者而言,入门的门槛较高;C/C++运行效率虽然很高,但是学习和开发成本高。写一个小型的爬虫程序就可能花费很长的时间。

而Python语言,其语法优美、代码简洁、开发效率高、支持多个爬虫模块,比如urllib、requests、Bs4等。Python的请求模块和解析模块丰富成熟,并且还提供了强大的Scrapy框架,让编写爬虫程序变得更为简单。因此使用Python编写爬虫程序是个非常不错的选择。

编写爬虫的流程

爬虫程序与其他程序不同,它的的思维逻辑一般都是相似的,所以无需我们在逻辑方面花费大量的时间。下面对Python编写爬虫程序的流程做简单地说明:

先由urllib模块的request方法打开URL得到网页HTML对象。使用浏览器打开网页源代码分析网页结构以及元素节点。通过BeautifulSoup或则正则表达式提取数据。存储数据到本地磁盘或数据库。

当然也不局限于上述一种流程。编写爬虫程序,需要您具备较好的Python编程功底,这样在编写的过程中您才会得心应手。爬虫程序需要尽量伪装成人访问网站的样子,而非机器访问,否则就会被网站的反爬策略限制,甚至直接封杀IP,相关知识会在后续内容介绍。

java和python在爬虫方面的优势和劣势是什么

python

网络功能强大,模拟登陆、解析javascript,短处是网页解析python写起程序来真的很便捷,著名的python爬虫有scrapy等

java

java有很多解析器,对网页的解析支持很好,缺点是网络部分java开源爬虫非常多,著名的如nutch国内有webmagicjava优秀的解析器有htmlparser、jsoup对于一般性的需求无论java还是python都可以胜任。如需要模拟登陆、对抗防采集选择python更方便些,如果需要处理复杂的网页,解析网页内容生成结构化数据或者对网页内容精细的解析则可以选择java。

标签: 手游

声明:

1、本文来源于互联网,所有内容仅代表作者本人的观点,与本网站立场无关,作者文责自负。

2、本网站部份内容来自互联网收集整理,对于不当转载或引用而引起的民事纷争、行政处理或其他损失,本网不承担责任。

3、如果有侵权内容、不妥之处,请第一时间联系我们删除,请联系

推荐文章

更多

最新文章

更多

热门文章

更多
  1. 致富小农场VS武器模拟器最新版
  2. 危机时刻VS腾讯梦回西游手机版
  3. 1.96黄金蓝魔皓月VS仙宠奇缘最新版
  4. 龙刃ol官方版VS熊猫西游手游
  5. 众神之耀手游VS疯狂钓鱼2018游戏
  6. 吕布很忙VS毒液传奇游戏
  7. 末日雄师公测官方版VS乱斗英雄坛百度版
  8. 王国战记安卓版VS豪车清洁模拟器
  9. 无双幻尘VS机战王2.9内购破解版
  10. 天天萌宠ol官方版VS封神计划官网版
  11. 魔力时代ol bt变态版VS在樱花盛开的山丘上
  12. 春秋霸业手游九游版VS弹射氓流