分享web开发知识

注册/登录|最近发布|今日推荐

主页 IT知识网页技术软件开发前端开发代码编程运营维护技术分享教程案例
当前位置:首页 > 教程案例

urllib-Proxy

发布时间:2023-09-06 02:16责任编辑:苏小强关键词:url

代理的使用:

首先,当我们正确爬取一个网页时,发现代码没有错误,可就是不能爬取网站。原因是有些网站设置了反爬取手段,就是知道你就是用python代码爬取该网站,设置了屏蔽。如果我们又想爬取该网站,便要我们使用代理服务了。

from urllib import requesturl = "http://httpbin.org/"headers = { ???#使用代理 伪装一个火狐浏览器 ???"User-Agent":‘Mozilla/5.0 (Windows NT 6.2; WOW64; rv:51.0) Gecko/20100101 Firefox/51.0‘, ???"host":‘httpbin.org‘}req = request.Request(url=url,headers=headers) ?????#发出url请求response = request.urlopen(req) ????????????????????#打开req对象print(response.read().decode("utf-8"))
from urllib import requesturl = "http://httpbin.org/"req = request.Request(url=url) ?????#发出url请求req.add_header( ???"User-Agent",‘Mozilla/5.0 (Windows NT 6.2; WOW64; rv:51.0) Gecko/20100101 Firefox/51.0‘)response = request.urlopen(req) ????????????????????#打开req对象print(response.read().decode("utf-8"))

意思就是以浏览器的身份去访问被屏蔽的网站,这样就不会被认为是python爬取的代码了

urllib-Proxy

原文地址:https://www.cnblogs.com/c-pyday/p/9710707.html

知识推荐

我的编程学习网——分享web前端后端开发技术知识。 垃圾信息处理邮箱 tousu563@163.com 网站地图
icp备案号 闽ICP备2023006418号-8 不良信息举报平台 互联网安全管理备案 Copyright 2023 www.wodecom.cn All Rights Reserved