scrapy爬取xx招聘信息
创始人
2025-01-17 04:02:16
0

scrapy爬取xx网站招聘信息

爬取某网站招聘爬虫
1、学会如何翻页
思路分析:
a、获取首页的数据
b、寻找下一页的地址,进行翻页,获取数据
步骤:
a、修改start_urls
b、检查allowed_domains
c、parse方法进行解析
2、网页关键词查找:ctrl+f,ctrl+v

  1. items.py中进行数据建模
""" 1、items中确定要爬取的字段,规范爬取的数据,防止遗漏 2、创建爬虫,域名xx.com 3、写url,parse解析数据     对数据进行xpath分析,确定数据 """ import scrapy class xxItem(scrapy.Item):     # define the fields for your item here like:     name = scrapy.Field()     link = scrapy.Field()     depart = scrapy.Field()     category = scrapy.Field()     type = scrapy.Field()     address = scrapy.Field()     num = scrapy.Field()     date = scrapy.Field() 
  1. 创建爬虫 scrapy genspider job xx.com
# 创建的job.py文件中运行 import scrapy from wangyi.items import xxItem  class JobSpider(scrapy.Spider):     name = 'job'     allowed_domains = ['xx.com']     # 1、更改初始url     start_urls = ['https://hr.xx.com/position/list.do']      def parse(self, response):         # 完成爬虫         # 1、解析响应信息,获取节点列表,         node_list = response.xpath('//*[@class="position-tb"]/tbody/tr')         # print(len(node_list)) 输出40,实际长度20,需要处理数据         # # 2、抽取数据,遍历节点列表,过滤数据         for num, node in enumerate(node_list):             # 设置过滤条件,将目标节点获取出来             if num % 2 == 0:                 item = WangyiItem()                 item['name'] = node.xpath('./td[1]/a/text()').extract_first()                 # response.urljoin()用于拼接相对路径的url                 item['link'] = response.urljoin(node.xpath('./td[1]/a/@href').extract_first())                 item['depart'] = node.xpath('./td[2]/text()').extract_first()                 item['category'] = node.xpath('./td[3]/text()').extract_first()                 item['type'] = node.xpath('./td[4]/text()').extract_first()                 item['address'] = node.xpath('./td[5]/text()').extract_first()                 item['num'] = node.xpath('./td[6]/text()').extract_first().strip()                 item['date'] = node.xpath('./td[7]/text()').extract_first()                 yield item         # 模拟翻页         part_url = response.xpath('/html/body/div[2]/div[2]/div[2]/div/a[last()]/@href').extract_first()          # 判断终止条件         if part_url != 'javascript:;':             next_url = response.urljoin(part_url)             # 构建请求对象,并且返回给引擎,最后去piplines保存数据             yield scrapy.Request(                 url=next_url,                 callback=self.parse             ) 
  1. 在piplines.py中保存文件
import json   class xxPipeline:      def __init__(self):         self.file = open('xx.json', 'w')      def process_item(self, item, spider):         item = dict(item)         str_data = json.dumps(item, ensure_ascii=False) + ',\n'          # 写入数据         self.file.write(str_data)         return item      def __del__(self):         self.file.close() 
  1. 开启管道,在settings.py中配置ITEM_PIPELINES
ITEM_PIPELINES = {    'xx.pipelines.xxPipeline': 300, } 

相关内容

热门资讯

第九分钟辅助!天天爱柳州辅助器... 天天爱柳州辅助器是一款可以让一直输的玩家,快速成为一个“必胜”的ai辅助神器,有需要的用户可以加我微...
热门推荐!微信小程序蜀山辅助器... 热门推荐!微信小程序蜀山辅助器免费下载(辅助)外挂辅助开挂插件(有挂秘诀)-哔哩哔哩;最新版2026...
第4分钟普及!奇迹陕西辅助器(... 第4分钟普及!奇迹陕西辅助器(透视)原来真的是有挂脚本(推荐开挂软件);奇迹陕西辅助器免费下载原版,...
第八分钟讲解!越乡游金花辅助,... 第八分钟讲解!越乡游金花辅助,九酷众游辅助,细节方法(有挂实锤)-哔哩哔哩1、下载安装好越乡游金花辅...
透视软件!浙江宝宝游戏辅助工具... 透视软件!浙江宝宝游戏辅助工具(辅助)外挂开挂辅助插件(了解有挂)-哔哩哔哩;是一款可以让一直输的玩...
第5分钟发现!桃乐甘肃麻将下载... 《第5分钟发现!桃乐甘肃麻将下载辅助器(辅助)原来有挂软件(必看开挂工具)》 桃乐甘肃麻将下载辅助器...
第8分钟了解!河洛刚次辅助,温... 第8分钟了解!河洛刚次辅助,温州茶苑辅助软件,详细教程(有挂攻略)-哔哩哔哩;无需打开直接搜索加薇1...
热点讨论!新二号辅助软件下载(... 热点讨论!新二号辅助软件下载(辅助)外挂辅助开挂软件(有挂教程)-哔哩哔哩;是一款可以让一直输的玩家...
8分钟解说!网易亲友圈辅助(开... 8分钟解说!网易亲友圈辅助(开挂)原来有挂平台(必看开挂安装);小薇(透视辅助)致您一封信;亲爱网易...
第5分钟开挂!如何在哈灵上辅助... 第5分钟开挂!如何在哈灵上辅助,决战卡五星辅助看牌器,解说技巧(有挂方略)-哔哩哔哩 了解更多开挂安...