找回密码
 会员注册
查看: 31|回复: 0

python使用代理IP爬取猫眼电影专业评分数据

[复制链接]

2

主题

0

回帖

7

积分

新手上路

积分
7
发表于 2024-9-6 18:18:05 | 显示全部楼层 |阅读模式
前言 我们为什么需要使用IP代理服务?在编写爬虫程序的过程中,IP封锁无疑是一个常见且棘手的问题。尽管网络上存在大量的免费IP代理网站,但其质量往往参差不齐,令人堪忧。许多代理IP的延迟过高,严重影响了爬虫的工作效率;更糟糕的是,其中不乏大量已经失效的代理IP,使用这些IP不仅无法绕过封锁,反而可能使爬虫陷入更深的困境。本篇文章中介绍一下如何使用Python的Requests库和BeautifulSoup库来抓取猫眼电影网站上的专业评分数据。正文1、导包importrequestsfrombs4importBeautifulSoupimportpandasaspdimportmatplotlib.pyplotasplt'运行运行Requests库是一个简单易用的HTTP库,用于发送网络请求和获取响应数据。BeautifulSoup库则是一个用于解析HTML和XML文档的Python库,可以帮助我们从网页中提取所需的数据。2、设置代理设置代理和代理信息可以在这里获取:IP代理服务#设置代理信息proxyHost="www.16yun.cn"proxyPort="5445"proxyUser="your_proxy_user"proxyPass="your_proxy_password"#设置代理proxyMeta="http://%(user)s:%(pass)s@%(host)s:%(port)s"%{"host":proxyHost,"port":proxyPort,"user":proxyUser,"pass":proxyPass,}proxies={"http":proxyMeta,"https":proxyMeta,}'运行运行3、设置请求头请求头的获取方式可以参考这篇文章:爬虫入门学习(三)请求headers处理-CSDN博客当然不用自己的也行哈哈 #设置请求头,模拟浏览器访问headers={'User-Agent':'Mozilla/5.0(WindowsNT10.0;Win64;x64)AppleWebKit/537.36(KHTML,likeGecko)Chrome/58.0.3029.110Safari/537.3'}'运行运行4、发起请求#发起请求,获取网页内容url='https://maoyan.com/films?showType=3'response=requests.get(url,headers=headers,proxies=proxies)#添加proxies参数soup=BeautifulSoup(response.text,'html.parser')5、解析网页内容#解析网页内容,提取专业评分数据movie_names=[]professional_scores=[]formovieinsoup.find_all('div',attrs={'class':'movie-itemfilm-channel'}):movie_name=movie.find('span',attrs={'class':'name'}).textscore=movie.find('span',attrs={'class':'integer'}).text+movie.find('span',attrs={'class':'fraction'}).textmovie_names.append(movie_name)professional_scores.append(score)#将数据存储到DataFrame中data={'电影名称':movie_names,'专业评分':professional_scores}df=pd.DataFrame(data)6、数据可视化#数据可视化plt.figure(figsize=(10,6))plt.bar(df['电影名称'],df['专业评分'],color='skyblue')plt.title('猫眼电影专业评分排行榜')plt.xlabel('电影名称')plt.ylabel('专业评分')plt.xticks(rotation=45)plt.show()上述代码片段展示了如何运用Python中的Requests库与BeautifulSoup库,精准地抓取猫眼电影网站上的专业评分数据。随后,通过Pandas库对数据进行整理与分析,再借助Matplotlib库进行可视化呈现。这一数据采集、处理与可视化的完整流程。完整代码如下:#导入所需的库importrequestsfrombs4importBeautifulSoupimportpandasaspdimportmatplotlib.pyplotasplt#设置代理信息proxyHost="www.16yun.cn"proxyPort="5445"proxyUser="your_proxy_user"proxyPass="your_proxy_password"#设置代理proxyMeta="http://%(user)s:%(pass)s@%(host)s:%(port)s"%{"host":proxyHost,"port":proxyPort,"user":proxyUser,"pass":proxyPass,}proxies={"http":proxyMeta,"https":proxyMeta,}#设置请求头,模拟浏览器访问headers={'User-Agent':'Mozilla/5.0(WindowsNT10.0;Win64;x64)AppleWebKit/537.36(KHTML,likeGecko)Chrome/58.0.3029.110Safari/537.3'}#发起请求,获取网页内容url='https://maoyan.com/films?showType=3'response=requests.get(url,headers=headers,proxies=proxies)#添加proxies参数soup=BeautifulSoup(response.text,'html.parser')#解析网页内容,提取专业评分数据movie_names=[]professional_scores=[]formovieinsoup.find_all('div',attrs={'class':'movie-itemfilm-channel'}):movie_name=movie.find('span',attrs={'class':'name'}).textscore=movie.find('span',attrs={'class':'integer'}).text+movie.find('span',attrs={'class':'fraction'}).textmovie_names.append(movie_name)professional_scores.append(score)#将数据存储到DataFrame中data={'电影名称':movie_names,'专业评分':professional_scores}df=pd.DataFrame(data)#数据可视化plt.figure(figsize=(10,6))plt.bar(df['电影名称'],df['专业评分'],color='skyblue')plt.title('猫眼电影专业评分排行榜')plt.xlabel('电影名称')plt.ylabel('专业评分')plt.xticks(rotation=45)plt.show()当然,如果你自己要使用的话得用自己专属的IP代理信息,而且具体情况得具体分析。如果你买了代理IP的话,不会的直接问客服,直接给你服务的服服帖帖的😎。小结本文详细阐述了如何利用Python爬虫技术从猫眼电影网站获取专业评分数据的过程,并通过代码实例展示了从设置代理、发起请求、解析网页内容到数据提取与可视化的完整流程。首先,文章介绍了必要的库导入,包括requests用于发起网络请求,BeautifulSoup用于解析HTML页面,pandas用于数据处理,以及matplotlib用于数据可视化。接着,通过设置代理和请求头,模拟了浏览器访问,成功绕过了可能存在的反爬虫机制,获取了目标网页的内容。在解析网页内容方面,文章通过BeautifulSoup的find_all方法定位到包含电影信息的div元素,并提取了电影名称和专业评分数据。这些数据被存储在一个列表中,为后续的数据处理和分析提供了基础。为了更直观地展示数据,文章还利用pandas库将提取的数据转换成了DataFrame格式,并使用matplotlib库绘制了专业评分排行榜的条形图。这不仅有助于读者更好地理解数据分布情况,还能为后续的深入分析提供直观的参考。
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 会员注册

本版积分规则

QQ|手机版|心飞设计-版权所有:微度网络信息技术服务中心 ( 鲁ICP备17032091号-12 )|网站地图

GMT+8, 2025-1-10 13:39 , Processed in 0.461183 second(s), 26 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表