这个男人让你的爬虫开发效率提升8倍
他叫 Kenneth Reitz。现就职于知名云服务提供商 DigitalOcean,曾是云计算平台 Heroku 的 Python 架构师,目前 Github 上 Python 排行榜的用户。(star 数超过了包括 google、tensorflow、django 等账号)
但他被更多路人所熟知的,恐怕还是他从一名技术肥宅逆袭成为文艺高富帅的励志故事:
看看他的个人主页 www.kennethreitz.org 上的标签:
除了程序员,还有摄影师、音乐家、演讲者……不怪在社交媒体上被称为“程序员届的网红”。
然而,作为一个严肃的技术号,今天我们不是要八卦他的开挂人生,而是他的代表作品:Requests
(如果你还是想看八卦,给你个传送门:谁说程序员不是潜力股?让这位世界前五名的天才程序员来颠覆你三观!)
Requests 自我定义为 HTTP for Humans:让 HTTP 服务人类,或者说人性化的 HTTP。言外之意,之前的那些 HTTP 库太过繁琐,都不是给人用的。(urllib 表示:怪我咯!)
尽管听上去有些自大,但实际上它的的确确配得上这个评价,用过的都说好。我在文首搬出它的网红作者,其实也仅仅是想吸引下你的眼球,然后告诉你,这真的是一个非常值得使用的库。“提升8倍”虽是我胡诌的数据,开发效率的提升却是杠杠滴。
我们先来看看它官网上的说法:
其他同样非常值得推荐的东西,如 PyCharm、Anaconda 等,我在推荐完之后往往得写上一些教程,并在后续不断解答使用者的问题。
而 Requests 却不同,它提供了官方中文文档,其中包括了很清晰的“快速上手”和详尽的用法和接口指南。以至于我觉得再把文档里面内容搬运过来都是一种浪费。对于 Requests,要做的仅仅是两件事:
- 告诉你有这样一个工具,用来开发爬虫很轻松
- 告诉你它的官方文档很好,你去读就可以了
到此为止,本篇的目的已经达到。不过为了更有说服力,以及照顾到一些暂时还不需要但以后可能会去看的同学,我还是再啰嗦几句,演示下 Requests 的威力。
安装
pip install requests
即可
请求网页
import requests
r = requests.get('http://httpbin.org/get')
print(r.status_code)
print(r.encoding)
print(r.text)
print(r.json())
相关文章