【python爬虫】python爬有道翻译

花狗子 595

在有道翻译页面中打开开发者工具,在Headers板块找到Request URL以及相应的data。


import urllib.request
import urllib.parse
import json
content=input('请输入需要翻译的内容:')
#_o要去掉,否则会出先error_code:50的报错
url='http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule'
data={}
#开发者工具里有,i和doctype键不可少
data['i']=content
data['from']='AUTO'
data['to']='AUTO'
data['smartresult']='dict'
data['client']='fanyideskweb'
data['salt']='15695569180611'
data['sign']='5b0565493d812bc5e713b895c12d615d'
data['doctype']='json'
data['version']='2.1'
data['keyfrom']='fanyi.web'
data['action']='FY_BY_REALTTIME'
#将字典类型的请求数据转化为url编码,并将编码类型转变为'utf-8'类型
data=urllib.parse.urlencode(data).encode('utf-8')
#向url请求data的响应结果
response=urllib.request.urlopen(url,data)
#读取返回数据内容,decode是转换返回数据的格式为str
html=response.read().decode('utf-8')
#使用json将字符串转化成字典
target=json.loads(html)
#结果在key='translateResult'的三层列表的key='tgt'中
print("翻译结果:%s" %(target['translateResult'][0][0]['tgt']))


上面这种很大可能被有道网页给识别出来不是人工在访问,而是代码在访问。


此时我们可以加个‘User-Agent’代理。通过设置User Agent来达到隐藏身份的目的,一般情况下浏览器是通过User-Agent来识别的。

 

通过调用urllib.request.Request()来设置UA。


class urllib.request.Request(url, data=None, headers={}, origin_req_host=None, unverifiable=False, method=None)
This class is an abstraction of a URL request.
  url should be a string containing a valid URL. 
  headers should be a dictionary #headers要为字典


有两种方法设置User Agent:

    1.在创建Request对象的时候,填入headers参数(包含User Agent信息),这个Headers参数要求为字典;

    2.在创建Request对象的时候不添加headers参数,在创建完成之后,使用add_header()的方法,添加headers。


import urllib.request
import urllib.parse
import json
import time
while True:
    
    content=input('请输入需要翻译的内容(输入"q!退出程序"):')
    if content=='q!':
        break;
    #_o要去掉,否则会出先error_code:50的报错
    url='http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule'
    
    '''
    第一种方法
    head={}
    head['User-Agent']='Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.181 Safari/537.36'
    '''
    
    data={}
    #开发者工具里有,i和doctype键不可少
    data['i']=content
    data['from']='AUTO'
    data['to']='AUTO'
    data['smartresult']='dict'
    data['client']='fanyideskweb'
    data['salt']='15695569180611'
    data['sign']='5b0565493d812bc5e713b895c12d615d'
    data['doctype']='json'
    data['version']='2.1'
    data['keyfrom']='fanyi.web'
    data['action']='FY_BY_REALTTIME'
    #将字典类型的请求数据转化为url编码,并将编码类型转变为'utf-8'类型
    data=urllib.parse.urlencode(data).encode('utf-8')
    '''
    第一种方法
    req=urllib.request.Request(url,data,head)
    '''
    #第二种方法设置User Agent
    #创建Request对象
    req=urllib.request.Request(url,data)
    req.add_header('User-Agent','Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.181 Safari/537.36')
    #传入创建好的Request对象
    response=urllib.request.urlopen(req)
    #读取响应信息并解码
    html=response.read().decode('utf-8')
    #使用json将字符串转化成字典
    target=json.loads(html)
    #结果在key='translateResult'的三层列表的key='tgt'中
    print("翻译结果:%s" %(target['translateResult'][0][0]['tgt']))
    #5秒一次
    time.sleep(5)


最新回复 (0)
返回