python爬虫案例(一个使用)

 2025-08-12 15:06:01  阅读 260  评论 0

摘要:《开源精选》是我们分享Github、Gitee等开源社区中优质项目的栏目,包括技术、学习、实用与各种有趣的内容。本期推荐的是一个使用 Python 编写的轻量级百度爬虫——BaiduSpider。BaiduSpider 是一个使用 Python 编写的轻量级百度爬虫。它基于 Requests 和 BeautifulSoup 构建

《开源精选》是我们分享Github、Gitee等开源社区中优质项目的栏目,包括技术、学习、实用与各种有趣的内容。本期推荐的是一个使用 Python 编写的轻量级百度爬虫——BaiduSpider。

BaiduSpider 是一个使用 Python 编写的轻量级百度爬虫。它基于 Requests 和 BeautifulSoup 构建,并提供了易用的 API 接口以及完善的类型注释,提升开发者的使用体验。

功能特性

节省提取数据的时间,对于类似深度学习项目的数据模型建立与训练起到了良好的帮助精准、快速地提取百度搜索结果,并删除广告搜索结果大而全,支持多种搜索类型,支持多种返回类型提供了简洁易用的 API

安装

依赖环境:

Python 3.6+

使用pip安装:

$ pip install baiduspider

从 GitHub 手动安装:

$ git clone git@github.com:BaiduSpider/BaiduSpider.git

# ...

$ python setup.py install

示例

百度网页搜索,也可以作为综合搜索使用。

BaiduSpider.search_web(
    self: BaiduSpider,
    query: str,
    pn: int = 1,
    exclude: list = [],
    proxies: Union[dict, None] = None,
) -> WebResult

参数

query str:要查询网页搜索的字符串pn int:要爬取的页码,默认为1,可选exclude dict:要屏蔽的子部件列表,可选time str | List[datetime.datetime]: 搜索时间范围proxies Union[dict, None]: 代理配置,默认为None,可选

实例

基本的调用:这是一个最基本的参数—— query 。它用于传递搜索词(字符串类型)。

# 导入BaiduSpider
from baiduspider import BaiduSpider
from pprint import pprint

# 实例化BaiduSpider
spider = BaiduSpider()

# 搜索网页
pprint(spider.search_web(query="要搜索的关键词").plain)

指定页码:你可以通过设置 pn 参数来更改 BaiduSpider 所获取的页码。

from baiduspider import BaiduSpider
from pprint import pprint

spider = BaiduSpider()

# 搜索网页,并传入页码参数(此处为第二页)
pprint(spider.search_web(query="要搜索的关键词", pn=2).plain)

注意:传入页码参数的时候一定要小心,务必不要传入过大的页码,否则百度搜索会自动跳转回第一页。


屏蔽特定的搜索结果:这个参数可以为你提供很大的便捷。通过设置 exclude 列表,你可以屏蔽某些特定的网页搜索子搜索结果来提高解析速度。

from baiduspider import BaiduSpider
from pprint import pprint

spider = BaiduSpider()

# 搜索网页,并传入要屏蔽的结果
# 在本样例中,屏蔽了贴吧和博客
pprint(spider.search_web(query="要搜索的关键词", exclude=["tieba", "blog"]).plain)

exclude 的值可以包含:["news", "video", "baike", "tieba", "blog", "gitee", "related", "calc"],分别表示:资讯,视频,百科,贴吧,博客,Gitee代码仓库,相关搜索,计算。 exclude 的值也可以是["all"],表示屏蔽除了普通搜索结果外的所有搜索结果。实例:

from baiduspider import BaiduSpider
from pprint import pprint

spider = BaiduSpider()

# 搜索网页,并传入要屏蔽的结果
# 在本样例中,屏蔽了所有非普通的搜索结果
pprint(spider.search_web(query="要搜索的关键词", exclude=["all"]).plain)

如果 exclude 中包含all且还有其他参数,那么将按照只有all的方式过滤搜索结果。


按时间筛选: time 参数能够实现更精准的搜索。 time 的取值可以是一个字符串或者是一个由 datetime.datetime 组成的元组。比如,使用字符串形式:

from baiduspider import BaiduSpider
from pprint import pprint

spider = BaiduSpider()

# 搜索网页,仅显示时间段内的搜索结果
# 在本样例中,筛选后仅显示一周内的搜索结果
pprint(spider.search_web(query="要搜索的关键词", time="week").plain)

此功能使用百度内置的搜索时间筛选器筛选结果,并非使用程序筛选。在这个样例中, time 的值是"week",代表筛选一周内的搜索结果。 time 的可选值如下:["day", "week", "month", "year"]。分别表示:一天内、一周内、一月内、一年内。除此以外,BaiduSpider 还支持自定义时间段。例如:

from baiduspider import BaiduSpider
from pprint import pprint
from datetime import datetime

spider = BaiduSpider()

# 在本样例中,筛选后仅显示2020.1.5 - 2020.4.9的搜索结果
pprint(spider.search_web(query="要搜索的关键词", time=(datetime(2020, 1, 5), datetime(2020, 4, 9))).plain)

在这个样例中, time 的值是一个元组(tuple)。元组的第一个值是起始时间,第二个值是结束时间。BaiduSpider会把他们都转化成 time.time() 形式的浮点数(然后仅保留整数),所以你也可以将 datetime 替换为一个整数。

—END—

此项目使用GPL3.0开源协议,更多功能大家可自行前往阅读。

开源地址:https://github.com/BaiduSpider/BaiduSpider

版权声明:我们致力于保护作者版权,注重分享,被刊用文章【python爬虫案例(一个使用)】因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自自研大数据AI进行生成,内容摘自(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供学习参考,不准确地方联系删除处理!;

原文链接:https://www.yxiso.com/zhishi/2079544.html

发表评论:

关于我们
院校搜的目标不仅是为用户提供数据和信息,更是成为每一位学子梦想实现的桥梁。我们相信,通过准确的信息与专业的指导,每一位学子都能找到属于自己的教育之路,迈向成功的未来。助力每一个梦想,实现更美好的未来!
联系方式
电话:
地址:广东省中山市
Email:beimuxi@protonmail.com

Copyright © 2022 院校搜 Inc. 保留所有权利。 Powered by BEIMUCMS 3.0.3

页面耗时0.0342秒, 内存占用1.93 MB, 访问数据库24次

陕ICP备14005772号-15