爬虫案例(scrapy爬虫案例代码解析)

 2025-09-02 03:51:01  阅读 254  评论 0

摘要:上节课我们讲解了scrapy的基本使用,这节课我们用scrapy爬取数据。1.爬取数据的主要思路我们从该网址(https://so.gushiwen.cn/shiwenv_4c5705b99143.aspx)爬取这首诗的标题和诗句,然后保存在我们的文件夹中,2.scrapy爬虫案例解析第一步,我们先新建一个scrapy框架名为’p

上节课我们讲解了scrapy的基本使用,这节课我们用scrapy爬取数据。

1.爬取数据的主要思路

我们从该网址(https://so.gushiwen.cn/shiwenv_4c5705b99143.aspx)爬取这首诗的标题和诗句,然后保存在我们的文件夹中,

2.scrapy爬虫案例解析

第一步,我们先新建一个scrapy框架名为’poems‘的文件夹

第二步,新建一个名为’verse‘的爬虫文件

第三步,对网页发送请求

打开爬虫文件’verse‘,更改需要爬取的网页地址

第四步,解析数据

更改parse解析部分,对获取到的数据(response)进行数据解析,所用到的解析方式为xpath解析,方法与requests发送请求的解析方式大同小异,首先在找到我们需要解析的部分内容,并填写相应的代码(如下图)。我们发现,与requests发送请求的解析方式不同的是,在原有基础上加上extract方法,和join方法才能获取文本信息

第五步,返回数据

我们要保存数据就需要parse模块有返回值,我们先新建一个空列表data,然后我们将title和content放入字典中并添加到列表中

第六步,保存数据

依旧用指令进行保存:scrapy +crawl+爬虫文件名+-o+保存路径,最终结果如下图:

版权声明:我们致力于保护作者版权,注重分享,被刊用文章【爬虫案例(scrapy爬虫案例代码解析)】因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自自研大数据AI进行生成,内容摘自(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供学习参考,不准确地方联系删除处理!;

原文链接:https://www.yxiso.com/zhishi/2123032.html

标签:爬虫案例

发表评论:

关于我们
院校搜的目标不仅是为用户提供数据和信息,更是成为每一位学子梦想实现的桥梁。我们相信,通过准确的信息与专业的指导,每一位学子都能找到属于自己的教育之路,迈向成功的未来。助力每一个梦想,实现更美好的未来!
联系方式
电话:
地址:广东省中山市
Email:beimuxi@protonmail.com

Copyright © 2022 院校搜 Inc. 保留所有权利。 Powered by BEIMUCMS 3.0.3

页面耗时0.0352秒, 内存占用1.91 MB, 访问数据库24次

陕ICP备14005772号-15