网站建设资讯

NEWS

网站建设资讯

Python爬虫怎么UA伪装爬取

小编给大家分享一下Python爬虫怎么UA伪装爬取,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!

创新互联专业为企业提供佛山网站建设、佛山做网站、佛山网站设计、佛山网站制作等企业网站建设、网页设计与制作、佛山企业网站模板建站服务,十载佛山做网站经验,不只是建网站,更提供有价值的思路和整体网络服务。

python可以做什么

Python是一种编程语言,内置了许多有效的工具,Python几乎无所不能,该语言通俗易懂、容易入门、功能强大,在许多领域中都有广泛的应用,例如最热门的大数据分析,人工智能,Web开发等。

在使用python爬取网站信息时,查看爬取完后的数据发现,数据并没有被爬取下来,这是因为网站中有UA这种请求载体的身份标识,如果不是基于某一款浏览器爬取则是不正常的请求,所以会爬取失败。本文介绍Python爬虫采用UA伪装爬取实例。

一、python爬取失败原因如下:

UA检测是门户网站的服务器会检测对应请求的载体身份标识,如果检测到请求的载体身份标识为某一款浏览器,说明该请求是一个正常的请求。如果检测到请求的载体身份标识不是基于某一款浏览器的。则表示该请求为不正常的请求,则服务器端就很有可能会拒绝该次请求。

二、解决方法:采用UA伪装

让爬虫对应的请求载体身份标识伪装成某一款浏览器,这里采用的伪装成Chrome浏览器。

采用UA伪装爬取实例

import requests

if __name__=="__main__":
    headers={
        "User-Agent":"Mozilla/5.0(Windows NT 10.0;Win64;x64) AppleWebKit / 537.36(KHTML, likeGecko) 
        Chrome / 88.0.4324.150 Safari / 537.36"
    }
    url="https://www.sogou.com/web"
    queryword=input("输出关键字")
    param={
        "query":queryword
    }
    res=requests.get(url=url,params=param,headers=headers)
    res.encoding="utf-8"
    page_text=res.text
    fileName=queryword+".html"
    with open(fileName,"w",encoding="utf-8") as fs:
        fs.write(page_text)
    print(page_text+"爬取结束")

添加伪装的请求头后再次进行爬虫请求,成功得到爬取到的html文件。

以上是“Python爬虫怎么UA伪装爬取”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注创新互联行业资讯频道!


文章题目:Python爬虫怎么UA伪装爬取
文章网址:http://njwzjz.com/article/gdhcce.html