博客
关于我
python爬虫实践之爬取豆瓣高评分电影
阅读量:257 次
发布时间:2019-03-01

本文共 1472 字,大约阅读时间需要 4 分钟。

爬取豆瓣高评分电影的实现

概述

本文将介绍如何通过编程实现豆瓣高评分电影的爬取,涵盖从准备到完成爬虫的全过程。

准备

所需模块

  • requests 模块用于发送HTTP请求
  • re 模块用于文本处理

涉及知识点

  • Python基础
  • requests 模块基础使用
  • re 模块基础使用

爬虫代码

URL规律

通过分析网页可得,URL格式如下:

https://movie.douban.com/j/new_search_subjects?sort=S&range=0,10&tags=&start={(page_index-1)*20}

其中,page_index 表示页码。

请求头设置

headers = {    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.81 Safari/537.36"}

爬取逻辑

代码实现如下:

import reimport requestsdef get_douban_high_ratings(page_num):    base_url = "https://movie.douban.com/j/new_search_subjects?sort=S&range=0,10&tags="    start = (page_num - 1) * 20    url = f"{base_url}&start={start}"        response = requests.get(url, headers=headers).text    response = re.sub(r"\\", "", response)        # 提取数据    pat_title = r'"title":"(.*?)",'    pat_rate = r'"rate":"(.*?)",'    pat_url = r'"url":"(.*?)",'        data_title = re.compile(pat_title).findall(response)    data_rate = re.compile(pat_rate).findall(response)    data_url = re.compile(pat_url).findall(response)        return data_title, data_rate, data_url# 输入要爬取的总记录数page_num = int(input("请输入您想爬取的总记录数(每20条为一个页面):"))titles, rates, urls = get_douban_high_ratings(page_num)for title, rate, url in zip(titles, rates, urls):    print(f"{title}\t\t{rate}")

运行效果

运行上述代码后,您可以在控制台看到如下结果:

电影标题    评分--------------------------------------------------------电影名称1    9.0电影名称2    8.9...

总结

通过上述方法,我们成功实现了对豆瓣高评分电影的爬取。该方法基于requests和re模块,能够高效地获取所需数据。

转载地址:http://pqzx.baihongyu.com/

你可能感兴趣的文章
Mysql 索引问题集锦
查看>>
Mysql 纵表转换为横表
查看>>
mysql 编译安装 window篇
查看>>
mysql 网络目录_联机目录数据库
查看>>
MySQL 聚簇索引&&二级索引&&辅助索引
查看>>
Mysql 脏页 脏读 脏数据
查看>>
mysql 自增id和UUID做主键性能分析,及最优方案
查看>>
Mysql 自定义函数
查看>>
mysql 行转列 列转行
查看>>
Mysql 表分区
查看>>
mysql 表的操作
查看>>
mysql 视图,视图更新删除
查看>>
MySQL 触发器
查看>>
mysql 让所有IP访问数据库
查看>>
mysql 记录的增删改查
查看>>
MySQL 设置数据库的隔离级别
查看>>
MySQL 证明为什么用limit时,offset很大会影响性能
查看>>
Mysql 语句操作索引SQL语句
查看>>
MySQL 误操作后数据恢复(update,delete忘加where条件)
查看>>
MySQL 调优/优化的 101 个建议!
查看>>