由于工作的需求,需要用python做一个类似网络爬虫的采集器。虽然python的urllib模块提供更加方便简洁操作,但是涉及到一些底层的需求,如手动设定user-agent,referer等,所以选择了直接用socket进行设计。当然,这样的话,需要对http协议比较熟悉,http协议这里就不做讲解了。整个python的代码如下:
#!/usr/bin env pythonimport sockethost="www.baidu.com"se=socket.socket(socket.AF_INET,socket.SOCK_STREAM)se.connect((host,80))se.send("GET / HTTP/1.1")se.send("Accept:text/html,application/xhtml+xml,*/*;q=0.8")#se.send("Accept-Encoding:gzip,deflate,sdch")se.send("Accept-Language:zh-CN,zh;q=0.8,en;q=0.6")se.send("Cache-Control:max-age=0")se.send("Connection:keep-alive")se.send("Host:"+host+"")se.send("Referer:http://www.baidu.com/")se.send("user-agent: Googlebot")print se.recv(1024)
登录后复制
代码运行正常,但是发现一个比较重要的问题,运行结果只返回了HTTP的头部信息,网页的内容则没有被返回。网上查找了很多资料,一无所获,经过一夜的思考,突然想到了一个问题,有可能我请求的资源非常大,一个网络的IP包的大小,它是受很多因素制约的,最典型的便是MTU(最大传输单元),那么会不会我请求的数据被分割了,HTTP的头部信息只是一部分,其它数据还在传输或者缓冲区呢?于是做了这样一个遍历:
while True: buf = se.recv(1024) if not len(buf): break print buf
登录后复制
这样发现所有请求的数据均被返回了,看来要想做好网络编程,深入理解TCP/IP协议是非常必要的。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至253000106@qq.com举报,一经查实,本站将立刻删除。
发布者:PHP中文网,转转请注明出处:https://www.chuangxiangniao.com/p/2292515.html