Python爬虫好写吗?

如题所述

python爬虫不简单的,基础爬虫:
(1)基础库:urllib模块/requests第三方模块
首先爬虫就是要从网页上把我们需要的信息抓取下来的,那么我们就要学习urllib/requests模块,这两种模块是负责爬取网页的。这里大家觉得哪一种用的习惯就用哪一种,选择一种精通就好了。我推荐读者使用使用requests模块,因为这一种简便很多,容易操作、容易理解,所以requests被称为“人性化模块”。
(2)多进程、多线程、协程和分布式进程:
为什么要学着四个知识呢?假如你要爬取200万条的数据,使用一般的单进程或者单线程的话,你爬取下载这些数据,也许要一个星期或是更久。试问这是你想要看到的结果吗?显然单进程和单线程不要满足我们追求的高效率,太浪费时间了。只要设置好多进程和多线程,爬取数据的速度可以提高10倍甚至更高的效率。
(3)网页解析提取库:xpath/BeautifulSoup4/正则表达式
通过前面的(1)和(2)爬取下来的是网页源代码,这里有很多并不是我们想要的信息,所以需要将没用的信息过滤掉,留下对我们有价值的信息。这里有三种解析器,三种在不同的场景各有特色也各有不足,总的来说,学会这三种灵活运用会很方便的。推荐理解能力不是很强的朋友或是刚入门爬虫的朋友,学习BeautifulSoup4是很容易掌握并能够快速应用实战的,功能也非常强大。
(4)反屏蔽:请求头/代理服务器/cookie
在爬取网页的时候有时会失败,因为别人网站设置了反爬虫措施了,这个时候就需要我们去伪装自己的行为,让对方网站察觉不到我们就是爬虫方。请求头设置,主要是模拟成浏览器的行为;IP被屏蔽了,就需要使用代理服务器来破解;而cookie是模拟成登录的行为进入网站。
(5)异常:超时处理/异常处理,这里不做介绍了,自己去了解一下。
(6)数据储存库:文件系统储存/MySQL/MongoDB
数据的储存大概就这三种方式了,文件系统储存是运用了python文件操作来执行的;而MySQL要使用到数据库创建表格来储存数据;MongoDB在爬虫里是非常好的储存方式,分布式爬虫就是运用了MongoDB来储存的。各有特色,看自己需要哪种,在灵活运用。
(7)动态网页抓取:Ajax/PhantomJS/Selenium这三个知识点
(8)抓包:APP抓包/API爬虫
(9)模拟登陆的 爬虫
温馨提示:答案为网友推荐,仅供参考
第1个回答  2020-11-22
没反爬的很简单,导个包再写一行就拿到数据了,带反爬的稍微难一点,但比其他语言肯定是好写得多
第2个回答  2020-11-23
爬虫掌握熟练的话,包括简单的mysql语句、html和css简单的知识以及最厉害的scrapy爬虫框架,基本上就可以去尝试海投一下爬虫岗位。
第3个回答  2020-11-23
python爬虫不简单的
相似回答