- 💂 个人网站:【 摸鱼游戏】【神级代码资源网站】【导航大全】
- 🤟 一站式轻松构建小程序、Web网站、移动应用:👉注册地址
- 🤟 基于Web端打造的:👉轻量化工具创作平台
- 💅 想寻找共同学习交流,摸鱼划水的小伙伴,请点击【全栈技术交流群】
本文档详细介绍了一个网络爬虫项目的准备和实现过程。该项目的目标是从百度图片搜索中获取图片链接并下载图片。此类爬虫项目通常用于收集大量的图片数据,以便用于训练各种人工智能模型,特别是计算机视觉模型。计算机视觉领域的研究需要大量的图像数据来训练和测试模型,以便实现图像分类、对象检测、图像生成等功能。
在开始编写爬虫之前,确保已经完成以下环境配置:
Python安装: 确保已安装Python 3.x版本。Python是一种功能强大且易于学习的编程语言,适合于各种编程任务,包括网络爬虫开发。
需要的库: Python有一个庞大的第三方库生态系统,我们将使用几个核心库来开发我们的爬虫:
可以使用以下命令通过pip安装这些库:
pip install requests
如果你使用的是Anaconda等集成环境,可以使用conda命令:
conda install requests
这些库将帮助我们处理HTTP请求、解析和存储数据,以及进行一些基本的系统操作。
本爬虫目标是从百度图片搜索获取图片链接并下载。百度图片搜索返回的结果是JSON格式的数据,其中包含了图片的缩略图链接。
import requests import json from urllib import parse import os import time class BaiduImageSpider(object): def __init__(self): self.json_count = 0 # 请求到的json文件数量(一个json文件包含30个图像文件) self.url = 'https://image.baidu.com/search/acjson?tn=resultjson_com&logid=5179920884740494226&ipn=rj&ct' \ '=201326592&is=&fp=result&queryWord={' \ '}&cl=2&lm=-1&ie=utf-8&oe=utf-8&adpicid=&st=-1&z=&ic=0&hd=&latest=©right=&word={' \ '}&s=&se=&tab=&width=&height=&face=0&istype=2&qc=&nc=1&fr=&expermode=&nojc=&pn={' \ '}&rn=30&gsm=1e&1635054081427= ' self.directory = r"C:\价值一个亿\python-mini-projects\projects\baidutupian\{}" # 存储目录 这里需要修改为自己希望保存的目录 {}不要丢 self.header = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3', 'Accept-Language': 'en-US,en;q=0.9', 'Referer': 'https://image.baidu.com' }
# 创建存储文件夹 def create_directory(self, name): self.directory = self.directory.format(name) # 如果目录不存在则创建 if not os.path.exists(self.directory): os.makedirs(self.directory) self.directory += r'\{}'
# 获取图像链接 def get_image_link(self, url): list_image_link = [] strhtml = requests.get(url, headers=self.header) # Get方式获取网页数据 print(f"Response content for URL {url}:\n{strhtml.text}\n") try: jsonInfo = json.loads(strhtml.text) except json.JSONDecodeError: print("Error decoding JSON") return list_image_link if 'data' in jsonInfo: for index in range(len(jsonInfo['data'])): if 'thumbURL' in jsonInfo['data'][index]: list_image_link.append(jsonInfo['data'][index]['thumbURL']) else: print("No 'data' key in the response JSON") return list_image_link
# 下载图片 def save_image(self, img_link, filename): try: res = requests.get(img_link, headers=self.header) if res.status_code == 404: print(f"图片 {img_link} 下载出错") else: with open(filename, "wb") as f: f.write(res.content) print("存储路径:" + filename) except requests.RequestException as e: print(f"Error downloading image: {e}")
# 入口函数 def run(self): searchName = input("查询内容:") searchName_parse = parse.quote(searchName) # 编码 self.create_directory(searchName) pic_number = 0 # 图像数量 for index in range(self.json_count): pn = index * 30 request_url = self.url.format(searchName_parse, searchName_parse, str(pn)) list_image_link = self.get_image_link(request_url) for link in list_image_link: pic_number += 1 self.save_image(link, self.directory.format(str(pic_number) + '.jpg')) time.sleep(1) # 休眠1秒,防止封ip print(searchName + "----图像下载完成--------->")
__init__
方法init 方法用于初始化爬虫类的属性。在这个方法中,我们定义了以下几个重要的属性:
create_directory
方法create_directory 方法根据提供的名称创建存储图片的文件夹。具体步骤如下:
get_image_link
方法get_image_link 方法负责发送GET请求获取百度图片搜索返回的JSON数据,并解析数据提取图片的缩略图链接。具体步骤如下:
save_image
方法save_image 方法用于下载图片到本地存储。具体步骤如下:
run
方法run 方法是爬虫的主运行函数,负责处理用户输入的查询内容,循环获取图片链接并下载到本地存储。具体步骤如下:
以上详细解释了每个方法在爬虫实现中的作用和具体实现步骤,确保了爬虫能够有效地从百度图片搜索中获取指定数量的图片并保存到本地。
在爬取网站数据时,频繁的请求会被网站识别为异常流量,可能导致IP被封禁。使用代理IP可以隐藏真实IP,降低被封禁的风险。
可以使用第三方代理IP服务商提供的代理IP池,例如requests库中的proxies参数。这里我采用的是亮数据IP代理服务。
在请求中添加代理IP,例如:
proxies = { 'http': 'http://user:password@proxy_ip:port', 'https': 'https://user:password@proxy_ip:port', } requests.get(url, headers=self.header, proxies=proxies)
以下是完整的Python代码实现:
# -*- coding:utf8 -*- import requests import json from urllib import parse import os import time class BaiduImageSpider(object): def __init__(self): self.json_count = 0 # 请求到的json文件数量(一个json文件包含30个图像文件) self.url = 'https://image.baidu.com/search/acjson?tn=resultjson_com&logid=5179920884740494226&ipn=rj&ct' \ '=201326592&is=&fp=result&queryWord={' \ '}&cl=2&lm=-1&ie=utf-8&oe=utf-8&adpicid=&st=-1&z=&ic=0&hd=&latest=©right=&word={' \ '}&s=&se=&tab=&width=&height=&face=0&istype=2&qc=&nc=1&fr=&expermode=&nojc=&pn={' \ '}&rn=30&gsm=1e&1635054081427= ' self.directory = r"C:\价值一个亿\python-mini-projects\projects\baidutupian\{}" # 存储目录 这里需要修改为自己希望保存的目录 {}不要丢 self.header = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3', 'Accept-Language': 'en-US,en;q=0.9', 'Referer': 'https://image.baidu.com' } # 创建存储文件夹 def create_directory(self, name): self.directory = self.directory.format(name) # 如果目录不存在则创建 if not os.path.exists(self.directory): os.makedirs(self.directory) self.directory += r'\{}' # 获取图像链接 def get_image_link(self, url): list_image_link = [] strhtml = requests.get(url, headers=self.header) # Get方式获取网页数据 print(f"Response content for URL {url}:\n{strhtml.text}\n") try: jsonInfo = json.loads(strhtml.text) except json.JSONDecodeError: print("Error decoding JSON") return list_image_link if 'data' in jsonInfo: for index in range(len(jsonInfo['data'])): if 'thumbURL' in jsonInfo['data'][index]: list_image_link.append(jsonInfo['data'][index]['thumbURL']) else: print("No 'data' key in the response JSON") return list_image_link # 下载图片 def save_image(self, img_link, filename): try: res = requests.get(img_link, headers=self.header) if res.status_code == 404: print(f"图片 {img_link} 下载出错") else: with open(filename, "wb") as f: f.write(res.content) print("存储路径:" + filename) except requests.RequestException as e: print(f"Error downloading image: {e}") # 入口函数 def run(self): searchName = input("查询内容:") searchName_parse = parse.quote(searchName) # 编码 self.create_directory(searchName) pic_number = 0 # 图像数量 for index in range(self.json_count): pn = index * 30 request_url = self.url.format(searchName_parse, searchName_parse, str(pn)) list_image_link = self.get_image_link(request_url) for link in list_image_link: pic_number += 1 self.save_image(link, self.directory.format(str(pic_number) + '.jpg')) time.sleep(1) # 休眠1秒,防止封ip print(searchName + "----图像下载完成--------->") if __name__ == '__main__': spider = BaiduImageSpider() spider.json_count = 10 # 定义下载10组图像,也就是三百张 spider.run()
运行以上代码,按照提示输入查询内容,爬虫将开始从百度图片搜索下载相关图片。
本文详细介绍了如何使用Python编写一个简单的爬虫,用于从百度图片搜索下载图片。通过分析目标网站、设计爬虫流程、实现代码以及配置代理IP,使得爬虫能够有效地获取图片数据。通过本项目,读者可以学习到基本的爬虫原理和实现方法,同时也了解到了如何处理异常情况和优化爬虫效率的方法。