python+requests模拟登陆 学校选课系统
最近学校让我们选课,每天都有不同的课需要选。。。。然后突发奇想试试用python爬学校选课系统的课程信息
先把自己的浏览器缓存清空,然后在登陆界面按f12 如图:
可以看到登陆时候是需要验证码的,验证码图标打算用方法把它存在桌面,手动输入验证码。
或者可以买一个自动输入验证码的平台1快钱可以帮自动识别100到200次验证码,如果这样做
大概过程就是:
1.找到自动输入验证码的平台
2.阅读该平台的API或者手册
3.用编程语言把验证码图片保存到自己电脑后根据平台格式要求打包,通过url发送过去
4.用返回的数字输入到验证码窗口
这次我就简单做一个需要自己手动输入验证码的模拟登陆脚本算了
回到正题
由于我清除了缓存,所以现在相当于第一次登陆,然后我没有登陆而是直接点了f5刷新,浏览器捕捉到的这个请求
可以看到这个是get请求并且请求头是两个Cookie。
Cookie就是我这台电脑我唯一标识符,当我下次访问这个网页时候它会用这个东西来进一步做一下操作,比如:进一步验证我的身份或者可以利用Cookie无需账号密码直接登陆
这里有两个cookie测试看看需用哪个 下面我再清一次缓存
首先上面有两个cookie下面没 。下面是我这边发送给学校的http请求,当我再刷新一次时候
可以看到 下面箭头 发送给学校的http请求中多了一个cookie而且是最开始的set-cookie中的第二个,接着我再刷新一次
可以看到发给学校的cookie变成了上次的set-cooki。
那么可以看到图中的 http://xk.qhnu.edu.cn/xsxk/logout.xk 这个网址是用于生成和发送cookie码的
那么如果我们不用浏览器登陆改成用代码登陆那么cookie应该是有用的,毕竟是用来标识我这台电脑的。
虽然不知道这个cookie码有没有用 先获取下来再说吧
这里需要用到python的request库
电脑安装好python后(在官网可以下载python并安装)
在配置好环境变量后可以输入win+r键 后输入cmd 调出cmd命令窗口
然后输入 pip install requests 后会自动安装requests库
接下来 我们需要在桌面新建文件并把后缀名改成 .py
源代码如下:
1 import requests 2 3 get_cookie_url='http://xk.qhnu.edu.cn/xsxk/logout.xk' 4 r = requests.get(get_cookie_url) 5 cookie=r.cookies.get_dict() 6 print(cookie)# 输出cookie
这里调用了requests的get方法,因为刚才看图片上的这个网址用的就是get请求
把结果保存在r里,然后用
.cookies.get_dict()得到cookie值
测试结果如下:
可以看到拿到了cookie码
:前面的是cookie ID 后面是cookie的值
登陆
接下来使用抓包工具Wireshark 监听经过这个网页的流量,也可以用刚才的f12看
输入账号密码和验证码后点击登陆 抓取到以下数据
登陆的时候时候给 http://xk.qhnu.edu.cn/xsxk/loadData.xk(没有截图到,可以自己抓包看到) 这个网址发送了数据并且发送头包含cookie等信息
并且发送给这个网页用的方法是get(没有截图到,可以自己抓包看到)
发送的数据变量有
method
username
password
verifcode
那么后面三个就应该是账号密码验证码了
通过上面提供的信息,我们可以伪造一个发给这个网址的请求
代码如下
check_header={ 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.67 Safari/537.36', 'Host': 'xk.qhnu.edu.cn', } params={ 'method':'checkLogin', 'username':自己的学号, 'password':自己的账号, } check_url='http://xk.qhnu.edu.cn/xsxk/loadData.xk' r = requests.get(check_url,params=params,cookies=cookie) #cookie由之前的代码获得
但是可以看到我们缺少了一个verifcode变量用来存放所输入的正确验证码值,因为我还要想办法把验证码的图片保存到桌面,方便看到。
这里我用谷歌浏览器f12的定位功能定位到验证码图片,并且显示了相对应的html代码
从图中可以看到 这个验证码是由src中的网址生成的,而且d=后面是一串数字,当我再刷新时候这串数字也发生变化
看这串数字不难发现它是一串格林尼治时间,也就是说我们要获得验证码就需要访问src中的网页,并且这个网址需要传递
一串数字,这串数字是格林尼治时间。我猜是为了做随机生成的吧
那么我们用get方法来访问这个网址并且将访问的数据保存到桌面
代码:
1 import time 2 3 jpg_url = 'http://xk.qhnu.edu.cn/xsxk/servlet/ImageServlet?d='+str(int(time.time())*1000) 4 5 content = requests.get(jpg_url,cookies=cookie).content 6 with open('demo.jpg', 'wb') as fp: 7 fp.write(content)
运行后桌面生成了验证码的图片
在获取这个验证码之前我用抓包工具看了一下 往这个地址发送的数据中又包括了cookie,所以我加上cookie了
在不加cookie的话 就算获取到了验证码图片 在进行模拟登陆时候根据桌面上的图登陆总是验证码错误
在折腾了一段时间后发现验证码的生成会和我的cookie相关联,也就是说,验证码的生成不仅用到格林尼治时间还用到我的cooki
并将验证码与我的cookie绑定,一一对应
然后通过
while(True): code = input('请输入验证码:') datacode= str(code) params['verifyCode']=datacode r = requests.get(check_url,params=params,cookies=cookie) if re.search('true',r.text): print ('验证码正确......') break else: print ('验证码错误,请重新输入......') date['verifyCode']=datacode
将验证码加入到前面的date中,发送给/xsxk/loadData.xk,在发送成功后查看返回信息发现验会有true字符串或者false,那么我就可以利用这个来验证我是不是正确
这样用到的re库 需要导入
回到刚才的登陆
继续看抓包的数据,发现了post方法,一般来说post方法是真正的登陆窗口
post方法前面的 get /xsxk/loadDate…… 就是我们前面实现的get,现应该实现post真正的登陆了
在查看post发送的数据中包含了头信息,其中包括cookie 和账号密码所以我们用requests的post方法继续伪造请求
在post结束后学校服务器会返回一个302 found的http状态码 这表示浏览器将我的数据发送后,会重新跳转到另外一个网页
不过requests是可以自动跳转的,不需要担心
代码
log_header={ 'Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8', 'Origin':'http://xk.qhnu.edu.cn', 'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.67 Safari/537.36', 'Referer':'http://xk.qhnu.edu.cn/xsxk/logout.xk', 'Accept-Encoding':'gzip, deflate', 'Accept-Language':'zh-CN,zh;q=0.9', 'Host': 'xk.qhnu.edu.cn', 'Cache-Control': 'max-age=0', 'Upgrade-Insecure-Requests': '1' } date={ 'username':自己的学号, 'password':自己的密码, } log_url='http://xk.qhnu.edu.cn/xsxk/login.xk' r=requests.post(log_url,data=date,headers=log_header,cookies=cookie) #传递的参数cooki由之前的代码获得
其中的 date和log_header都是通过抓包看到的 这个网页需要哪些数据。
代码写好后 运行并且抓包发现 与用网页登陆抓取的包大致相同,通过多次修改可以总结如下
通过用网页登陆抓包发现登陆学校的网址有一下步骤
1.在清空缓存,刷新时(即第一次登陆时),会先向xsxk/logout.xk发送cookie
2.在get验证码的所需要的数据中 通过抓包发现需要用到第一步的cookie
3.在登陆前需要向xsxk/loadData.xk发送自己的账号密码和验证码和cookie
4.登陆时用的是post方法,并且还需要将自己的账号密码和之前的验证码和cookie发送一次 如果没有完成第三步那么无论怎么登陆都失败
完整代码如下
import time import requests import re from bs4 import BeautifulSoup #获取解析网页的库 username=input("账号") password=input("密码") get_cookie_url='http://xk.qhnu.edu.cn/xsxk/logout.xk' jpg_url = 'http://xk.qhnu.edu.cn/xsxk/servlet/ImageServlet?d='+str(int(time.time())*1000) check_url='http://xk.qhnu.edu.cn/xsxk/loadData.xk' log_url='http://xk.qhnu.edu.cn/xsxk/login.xk' get_cookie_header={ 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.67 Safari/537.36' } check_header={ 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.67 Safari/537.36', 'Host': 'xk.qhnu.edu.cn', } params={ 'method':'checkLogin', 'username':username, 'password':password, } log_header={ 'Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8', 'Origin':'http://xk.qhnu.edu.cn', 'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.67 Safari/537.36', 'Referer':'http://xk.qhnu.edu.cn/xsxk/logout.xk', 'Accept-Encoding':'gzip, deflate', 'Accept-Language':'zh-CN,zh;q=0.9', 'Host': 'xk.qhnu.edu.cn', 'Cache-Control': 'max-age=0', 'Upgrade-Insecure-Requests': '1' } date={ 'username':username, 'password':password, } r = requests.get(get_cookie_url) cookie=r.cookies.get_dict() #print(cookie) 输出cookie content = requests.get(jpg_url,cookies=cookie).content with open('demo.jpg', 'wb') as fp: fp.write(content) while(True): code = input('请输入验证码:') datacode= str(code) params['verifyCode']=datacode r = requests.get(check_url,params=params,cookies=cookie) if re.search('true',r.text): print ('验证码正确......') break else: print ('验证码错误,请重新输入......') date['verifyCode']=datacode r=requests.post(log_url,data=date,headers=log_header,cookies=cookie) #print(r.text)获得网址的源代码 html=BeautifulSoup(r.text,'lxml') tagList=html.find('b') print('#############################################################') print('进入选课系统成功:') print(tagList.get_text()) print('#############################################################')
在这里用了另外一个库 用于解析所获取的登陆后网页源代码
总的来说就是 先用浏览器和抓包工具,浏览器多次登陆,用抓包工具和浏览器的f12查看登陆前经历了哪些步骤,哪些网页,每个网页分别发送了哪些数据,用的是get方法还是post方法
在知道后,用代码将所需要的数据写出来并保存后用requests库的get方法post方法模拟发送数据给学校服务器。最后获得登陆后的网页源代码
不过。。。我在获得源代码后发现html中的iframe标签显示的是选课的内容,但是我用于分析网页代码的库是BeautifulSoup
它不支持分析iframe内容。。。白忙活了那么久。
通过在网上查找信息发现selenium这个库支持分析iframe标签的内容
所以接下来就去学习用这个库去获取学习的选课信息并且自动选课
下次就放用selenium做爬虫的过程
相关文章