http://blog.sina.com.cn/s/blog_74a7e56e010177l8.html

早听说用python做网络爬虫非常方便,正好这几天单位也有这样的需求,需要登陆XX网站下载部分文档,于是自己亲身试验了一番,效果还不错。

本例所登录的某网站需要提供用户名,密码和验证码,在此使用了python的urllib2直接登录网站并处理网站的Cookie。

Cookie的工作原理:

Cookie由服务端生成,然后发送给浏览器,浏览器会将Cookie保存在某个目录下的文本文件中。在下次请求同一网站时,会发送该Cookie给服务器,这样服务器就知道该用户是否合法以及是否需要重新登录。

Python提供了基本的cookielib库,在首次访问某页面时,cookie便会自动保存下来,之后访问其它页面便都会带有正常登录的Cookie了。

原理:

(1)激活cookie功能

(2)反“反盗链”,伪装成浏览器访问

(3)访问验证码链接,并将验证码图片下载到本地

(4)验证码的识别方案网上较多,python也有图像处理库,此例调用了火车头采集器的OCR识别接口。

(5)表单的处理,可用fiddler等抓包工具获取需要提交的参数

(6)生成需要提交的数据,生成http请求并发送

(7)根据返回的js页面判断是否登陆成功

(8)登陆成功后下载其它页面

此例中使用多个账号轮询登陆,每个账号下载指定数目页面。

以下是部分代码:

#!usr/bin/env python#-*- coding: utf-8 -*-import osimport urllib2import urllibimport cookielibimport xml.etree.ElementTree as ET#-----------------------------------------------------------------------------# Login in www.***.com.cndef ChinaBiddingLogin(url, username, password):    # Enable cookie support for urllib2    cookiejar=cookielib.CookieJar()    urlopener=urllib2.build_opener(urllib2.HTTPCookieProcessor(cookiejar))    urllib2.install_opener(urlopener)         urlopener.addheaders.append(('Referer','http://www.chinabidding.com.cn/zbw/login/login.jsp'))    urlopener.addheaders.append(('Accept-Language','zh-CN'))    urlopener.addheaders.append(('Host','www.chinabidding.com.cn'))    urlopener.addheaders.append(('User-Agent','Mozilla/5.0 (compatible; MISE 9.0; Windows NT 6.1);Trident/5.0'))    urlopener.addheaders.append(('Connection','Keep-Alive'))    print 'XXX Login......'    imgurl=r'http://www.*****.com.cn/zbw/login/p_w_picpath.jsp'    DownloadFile(imgurl, urlopener)    authcode=raw_input('Please enter theauthcode:')    #authcode=VerifyingCodeRecognization(r"http://192.168.0.106/p_w_picpaths/code.jpg")    # Send login/password to the site and get thesession cookie    values={'login_id':username, 'opl':'op_login','login_passwd':password, 'login_check':authcode}    urlcontent=urlopener.open(urllib2.Request(url,urllib.urlencode(values)))    page=urlcontent.read(500000)    # Make sure we are logged in, check the returnedpage content    if page.find('login.jsp')!=-1:        print 'Login failed withusername=%s, password=%s and authcode=%s' \                % (username, password, authcode)        return False    else:        print 'Loginsucceeded!'        return True#-----------------------------------------------------------------------------# Download from fileUrl then save to fileToSave# Note: the fileUrl must be a valid filedef DownloadFile(fileUrl, urlopener):    isDownOk=False    try:        if fileUrl:            outfile=open(r'/var/www/p_w_picpaths/code.jpg', 'w')            outfile.write(urlopener.open(urllib2.Request(fileUrl)).read())            outfile.close()            isDownOK=True        else:            print'ERROR: fileUrl is NULL!'    except:        isDownOK=False    return isDownOK#------------------------------------------------------------------------------# Verifying code recoginizationdef VerifyingCodeRecognization(imgurl):    url=r'http://192.168.0.119:800/api?'    user='admin'    pwd='admin'    model='ocr'    ocrfile='cbi'    values={'user':user, 'pwd':pwd, 'model':model,'ocrfile':ocrfile, 'imgurl':imgurl}    data=urllib.urlencode(values)    try:        url+=data        urlcontent=urllib2.urlopen(url)    except IOError:        print '***ERROR: invalid URL(%s)' % url    page=urlcontent.read(500000)    # Parse the xml data and get the verifyingcode    root=ET.fromstring(page)    node_find=root.find('AddField')    authcode=node_find.attrib['data']    return authcode#------------------------------------------------------------------------------# Read users from configure filedef ReadUsersFromFile(filename):    users={}    for eachLine in open(filename, 'r'):        info=[w for w ineachLine.strip().split()]        if len(info)==2:            users[info[0]]=info[1]    return users#------------------------------------------------------------------------------def main():    login_page=r'http://www.***.com.cnlogin/login.jsp'    download_page=r'http://www.***.com.cn***/***?record_id='    start_id=8593330    end_id=8595000    now_id=start_id    Users=ReadUsersFromFile('users.conf')    while True:        for key in Users:            ifChinaBiddingLogin(login_page, key, Users[key]):                for i in range(3):                    pageUrl=download_page+'%d' %now_id                    urlcontent=urllib2.urlopen(pageUrl)                    filepath='./download/%s.html'% now_id                    f=open(filepath, 'w')                    f.write(urlcontent.read(500000))                    f.close()                    now_id+=1            else:                continue#------------------------------------------------------------------------------if __name__=='__main__':    main()