基于python利用requests库获取dy2018下载信息,快捷获取最新电影
创始人
2024-11-06 07:10:46
0

项目介绍

 

本项目是本人的课设,实用性很强,对于喜欢看电影的朋友来说可以快捷获取最新电影的下载信息(相关网址dy2018.com)

电影 / 最新电影_电影天堂-迅雷电影下载

环境搭建

python:3.10.0

request、lxml

步骤详解

依赖:

正则、requset、lxml

import requests import re from lxml import etree

创建类并初始化:

请求地址为目标网站:

class dy2018:     def __init__(self):         """初始化"""         # 请求地址         self.url = "https://www.dy2018.com/html/gndy/dyzz/index.html"         # 请求头         self.header = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64)     AppleWebKit/537.36 (KHTML, like Gecko) Chrome/114.0.0.0 Safari/537.36"}         # 代理         self.proxies = {"HTTP": "117.114.149.66:55443"}

请求函数:

网站编码为GBK:

    def get_response(self, url):         """发送请求并获取响应"""         return requests.get(url=url, headers=self.header).content.decode("GBK")

解析函数:

在第一级页面用xpath定位每条电影链接:

 获取的地址不能直接用,可以点击任意两个链接查看它们的特征:

 

 

 得出结论,下一级网址 = dy2018.com/ + href元素的地址,

调用请求函数,得到html信息,调用打印函数。

    def parse_list_data(self, html):         """解析数据"""         # 1.创建查找对象         html_node = etree.HTML(html)         # 2. 查找父节点div         div_node = html_node.xpath('//div[@class="co_content8"]/ul')[0]         # 3. 查找table节点         all_table_nodes = div_node.xpath('//table[@class="tbspan"]')         # 4. 遍历每一个table节点         for table_node in all_table_nodes:             # 地址前缀             base_url = "https://www.dy2018.com"             # 取后缀地址             path = table_node.xpath(".//tr[2]//b/a/@href")[0]             # 连接地址前缀和后缀             movie_detail_url = base_url + path             # 发送详情页请求             movie_detail_html = self.get_response(movie_detail_url)              # print(movie_detail_html)              self.print_list_data(movie_detail_html)

打印函数:

定义正则:

通过观察特征可以看出电影信息前缀都有一个固定的字符串:

◎译  名

◎片  名

◎年  代

...

最后,最重要的是电影的下载链接:

观察这个链接的特征,

发现这个链接是以“magnet:\?xt=urn:btih:”开头的,但是确获取了多个值,有的链接是无法下载的,为了准确获取的值,我们直接在html中找出特征:

我们发现有效链接是以a href=为开头,&tr为结尾的,根据这个特征定义正则: 

r'a href="(magnet:\?xt=urn:btih:.*?)&tr='

根据正则去匹配信息,

打印电影信息。

    def print_list_data(self, page_data):         """打印数据"""         # 定义正则表达式模式         patterns = {             "译名": r"◎译\s* \s*名\s+(.*?)
", "片名": r"◎片\s* \s*名\s+(.*?)
", "年代": r"◎年\s* \s*代\s+(.*?)
", "产地": r"◎产\s* \s*地\s+(.*?)
", "类别": r"◎类\s* \s*别\s+(.*?)
", "语言": r"◎语\s* \s*言\s+(.*?)
", "上映日期": r"◎上映日期\s+(.*?)
", "豆瓣评分": r"◎豆瓣评分\s+(.*?)
", "torrent": r'a href="(magnet:\?xt=urn:btih:.*?)&tr=', } # 初始化一个字典来存储提取的信息 movie_data = {} # 使用正则表达式提取信息 for key, pattern in patterns.items(): match = re.search(pattern, page_data) if match: movie_data[key] = match.group(1) # 打印提取的电影信息 print("译名:", movie_data.get("译名")) print("片名:", movie_data.get("片名")) print("年代:", movie_data.get("年代")) print("产地:", movie_data.get("产地")) print("类别:", movie_data.get("类别")) print("语言:", movie_data.get("语言")) print("上映日期:", movie_data.get("上映日期")) print("豆瓣评分:", movie_data.get("豆瓣评分")) print("torrent:", movie_data.get("torrent")) print("--------------------------------")

运行函数:

传递参数为页数,但是这个网站第一页和第二页没有统一特征:

https://www.dy2018.com/html/gndy/dyzz/index.html

https://www.dy2018.com/html/gndy/dyzz/index_2.html

这是第一页和第二页的url

可以看出第一页index后面不带“_”第二页带,没办法,获取第二页、第三页信息时只能重新写一个统一的url,将变量index传递进去。

    def run_spider(self, page_index=1):         # 请求地址         url = self.url         # 发送请求         pageHtml = self.get_response(url)         # 解析数据         self.parse_list_data(pageHtml)          if page_index > 1:             for index in range(2, page_index + 1):                 base_index_url = f"https://www.dy2018.com/html/gndy/dyzz/index_{index}.html"                 # 发送请求                 pageHtml = self.get_response(base_index_url)                 # 解析数据                 self.parse_list_data(pageHtml)

运行结果: 

最后打开迅雷,将复制的链接在迅雷中打开,就可以下载电影了

源代码

放出源代码

import requests import re from lxml import etree  class dy2018:     def __init__(self):         """初始化"""         # 请求地址         self.url = "https://www.dy2018.com/html/gndy/dyzz/index.html"         # 请求头         self.header = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/114.0.0.0 Safari/537.36"}         # 代理         self.proxies = {"HTTP": "117.114.149.66:55443"}      def get_response(self, url):         """发送请求并获取响应"""         return requests.get(url=url, headers=self.header).content.decode("GBK")      def print_list_data(self, page_data):         """打印数据"""         # 定义正则表达式模式         patterns = {             "译名": r"◎译\s* \s*名\s+(.*?)
", "片名": r"◎片\s* \s*名\s+(.*?)
", "年代": r"◎年\s* \s*代\s+(.*?)
", "产地": r"◎产\s* \s*地\s+(.*?)
", "类别": r"◎类\s* \s*别\s+(.*?)
", "语言": r"◎语\s* \s*言\s+(.*?)
", "上映日期": r"◎上映日期\s+(.*?)
", "豆瓣评分": r"◎豆瓣评分\s+(.*?)
", "torrent": r'a href="(magnet:\?xt=urn:btih:.*?)&tr=', } # 初始化一个字典来存储提取的信息 movie_data = {} # 使用正则表达式提取信息 for key, pattern in patterns.items(): match = re.search(pattern, page_data) if match: movie_data[key] = match.group(1) # 打印提取的电影信息 print("译名:", movie_data.get("译名")) print("片名:", movie_data.get("片名")) print("年代:", movie_data.get("年代")) print("产地:", movie_data.get("产地")) print("类别:", movie_data.get("类别")) print("语言:", movie_data.get("语言")) print("上映日期:", movie_data.get("上映日期")) print("豆瓣评分:", movie_data.get("豆瓣评分")) print("torrent:", movie_data.get("torrent")) print("--------------------------------") def parse_list_data(self, html): """解析数据""" # 1.创建查找对象 html_node = etree.HTML(html) # 2. 查找父节点div div_node = html_node.xpath('//div[@class="co_content8"]/ul')[0] # 3. 查找table节点 all_table_nodes = div_node.xpath('//table[@class="tbspan"]') # 4. 遍历每一个table节点 for table_node in all_table_nodes: # 地址前缀 base_url = "https://www.dy2018.com" # 取后缀地址 path = table_node.xpath(".//tr[2]//b/a/@href")[0] # 连接地址前缀和后缀 movie_detail_url = base_url + path # 发送详情页请求 movie_detail_html = self.get_response(movie_detail_url) # print(movie_detail_html) self.print_list_data(movie_detail_html) def run_spider(self, page_index=1): # 请求地址 url = self.url # 发送请求 pageHtml = self.get_response(url) # 解析数据 self.parse_list_data(pageHtml) if page_index > 1: for index in range(2, page_index + 1): base_index_url = f"https://www.dy2018.com/html/gndy/dyzz/index_{index}.html" # 发送请求 pageHtml = self.get_response(base_index_url) # 解析数据 self.parse_list_data(pageHtml) if __name__ == '__main__': dy2018().run_spider(page_index=1)

第一次做博客,有不足的地方,还望各位海涵。

相关内容

热门资讯

透视安装!德州微扑克辅助,(n... 透视安装!德州微扑克辅助,(nzt德州)本来有挂(详细辅助软件教程)1、该软件可以轻松地帮助玩家将德...
透视肯定(wpK)微扑克全自动... 透视肯定(wpK)微扑克全自动机器人(透视)详细辅助辅助教程(好像是有挂)1、每一步都需要思考,不同...
透视能赢(德州aapoker)... 透视能赢(德州aapoker)aapoker猫腻(透视)一直真的有挂(详细辅助技巧教程);1、aap...
透视讲解!德州之星外挂,(德州... 透视讲解!德州之星外挂,(德州机器人)竟然存在有挂(详细辅助解密教程)1、该软件可以轻松地帮助玩家将...
透视黑科技(wPK)微扑克ai... 透视黑科技(wPK)微扑克ai辅助工具(透视)详细辅助技巧教程(确实存在有挂);1、完成微扑克ai辅...
透视挂透视(aAPOKER)a... 透视挂透视(aAPOKER)aapoker透明挂(透视)都是真的是有挂(详细辅助2025新版);1、...
透视新版!德扑之星作弊,(线上... 透视新版!德扑之星作弊,(线上wpk德州)竟然有挂(详细辅助2025新版总结);1、点击下载安装,德...
透视科技(wpK)wpk有透视... 透视科技(wpK)wpk有透视辅助(透视)详细辅助教你攻略(一直真的有挂);1、该软件可以轻松地帮助...
透视规律(Aapoker)aa... 透视规律(Aapoker)aapoker俱乐部(透视)都是存在有挂(详细辅助AA德州教程)1、完成a...
透视有挂!德州ai辅助软件,(... 透视有挂!德州ai辅助软件,(德州机器人)本来真的是有挂(详细辅助教你教程);德州ai辅助软件辅助器...