# 这是学习廖雪峰老师python教程的学习笔记

1、概览

urllib提供了一系列用于操作URL的功能。

urllib中包括了四个模块,包括

  • urllib.request:可以用来发送request和获取request的结果

  • urllib.error:包含了urllib.request产生的异常

  • urllib.parse:用来解析和处理URL

  • urllib.robotparse:用来解析页面的robots.txt文件

1.1urllib.request

urllib的request模块可以非常方便地抓取URL内容。

它会先发送一个GET请求到指定的页面,然后返回HTTP的响应:

1)对豆瓣的一个URL进行抓取,并返回响应

from urllib import request

 

# request模块调用urlopen方法打开网址

with request.urlopen('https://api.douban.com/v2/book/2129650') as f:

    data = f.read() #返回的网页内容

    print('Status:', f.status, f.reason)

    for k, v in f.getheaders():

        print('%s: %s' % (k, v))

    print('Data:', data.decode('utf-8'))

2)模拟iPhone 6去请求豆瓣首页

模拟浏览器发送GET请求,使用Request对象。通过往Request对象添加HTTP头,我们就可以把请求伪装成各种浏览器

from urllib import request

 

req = request.Request('http://www.douban.com/') #创建了一个Request对象 req是类

# 添加请求的头信息

req.add_header('User-Agent', 'Mozilla/6.0 (iPhone; CPU iPhone OS 8_0 like Mac OS X) AppleWebKit/536.26 (KHTML, like Gecko) Version/8.0 Mobile/10A5376e Safari/8536.25')

with request.urlopen(req) as f: #Request对象作为url传入

    print('Status:', f.status, f.reason)

    for k, v in f.getheaders():

        print('%s: %s' % (k, v))

    print('Data:', f.read().decode('utf-8'))

1.2Post

如果要以POST发送一个请求,只需要把参数data以bytes形式传入。

1)我们模拟一个微博登录,先读取登录的邮箱和口令,然后按照weibo.cn的登录页的格式以username=xxx&password=xxx的编码传入

from urllib import request, parse

 

print('Login to weibo.cn...')

email = input('Email: ')

passwd = input('Password: ')

login_data = parse.urlencode([  # parseurlencode方法,对要传过去的数据进行编码

    ('username', email),

    ('password', passwd),

    ('entry', 'mweibo'),

    ('client_id', ''),

    ('savestate', '1'),

    ('ec', ''),

    ('pagerefer', '')

])

 

req = request.Request('https://passport.weibo.cn/sso/login')   # 创建Request 对象

req.add_header('Origin', '')

req.add_header('User-Agent', 'Mozilla/6.0 (iPhone; CPU iPhone OS 8_0 like Mac OS X) AppleWebKit/536.26 (KHTML, like Gecko) Version/8.0 Mobile/10A5376e Safari/8536.25')

req.add_header('Referer', '')

 

with request.urlopen(req, data=login_data.encode('utf-8')) as f: #data用来指明发往服务器请求中的额外的信息

    print('Status:', f.status, f.reason)

    for k, v in f.getheaders():

        print('%s: %s' % (k, v))

    print('Data:', f.read().decode('utf-8'))

1.3Header

1)如果还需要更复杂的控制,比如通过一个Proxy去访问网站,我们需要利用ProxyHandler来处理

proxy_handler = urllib.request.ProxyHandler({'http': ''}) #创建代理

proxy_auth_handler = urllib.request.ProxyBasicAuthHandler()  #设置基础认证管理,用代理处理身份认证

# relam:代理的范围,'host':代理url

# 用一个使用编程提供的代理url(’host‘)替换默认的ProxyHandler

proxy_auth_handler.add_password('realm', 'host', 'username', 'password')

opener = urllib.request.build_opener(proxy_handler, proxy_auth_handler) # 返回一个 OpenerDirector 实例

with opener.open('http://www.example.com/login.html') as f:  # 访问网址

    pass

1.4、小结

urllib提供的功能就是利用程序去执行各种HTTP请求。如果要模拟浏览器完成特定功能,需要把请求伪装成浏览器。伪装的方法是先监控浏览器发出的请求,再根据浏览器的请求头来伪装,User-Agent头就是用来标识浏览器的。

1.5、扩展文档

python3网络爬虫一《使用urllib.request发送请求》 ()

Pythonurlopen()介绍 ()

python 爬虫之为什么使用opener对象以及为什么要创建全局默认的opener对象 ()

2、例子

1、利用urllib读取JSON,然后将JSON解析为Python对象:

# -*- coding: utf-8 -*-

from urllib import request

import json

 

def fetch_data(url):

    with request.urlopen(url) as f:

        data = json.loads(f.read().decode('utf-8')) #将读到的网页内容解码,再由json.loads()反序列化为Python对象

        return data

 

 

 

# 测试

URL = ''

data = fetch_data(URL)

print(data)

assert data['query']['results']['channel']['location']['city'] == 'Beijing'

print('ok')