本文适合有 Java 基础知识的人群
本文作者:HelloGitHub-秦人
HelloGitHub 推出的《讲解开源项目》系列,今天给大家带来一款开源 Java 版一款网页元素解析框架——jsoup,通过程序自动获取网页数据。
项目源码地址:https://github.com/jhy/jsoup
jsoup 是一款 Java 的 HTML 解析器。可直接解析某个 URL 地址的 HTML 文本内容。它提供了一套很省力的 API,可通过 DOM、CSS 以及类似于 jQuery 选择器的操作方法来取出和操作数据。
jsoup 主要功能:
从一个 URL、文件或字符串中解析 HTML。使用 DOM 或 CSS 选择器来查找、取出数据。可操作 HTML 元素、属性、文本。将项目导入 idea 开发工具,会自动下载 maven 项目需要的依赖。源码的项目结构如下:
快速学习源码是每个程序员必备的技能,我总结了以下几点:
阅读项目 ReadMe 文件,可以快速知道项目是做什么的。概览项目 pom.xml 文件,了解项目引用了哪些依赖。查看项目结构、源码目录、测试用例目录,好的项目结构清晰,层次明确。运行测试用例,快速体验项目。gitclonehttps://github.com/jhy/jsoup
通过上面的方法,我们很快可知 example 目录是测试代码,那我们直接来运行。注:有些测试代码需要稍微改造一下才可以运行。
例如,jsoup 的 Wikipedia 测试代码:
publicclassWikipedia{
publicstaticvoidmain(String[]args)throwsIOException{
Documentdoc=Jsoup.connect("http://en.wikipedia.org/").get();
log(doc.title());
ElementsnewsHeadlines=doc.select("#mp-itnba");
for(Elementheadline:newsHeadlines){
log("%s\n\t%s",headline.attr("title"),headline.absUrl("href"));
}
}
privatestaticvoidlog(Stringmsg,String...vals){
System.out.println(String.format(msg,vals));
}
}
说明:上面代码是获取页面(http://en.wikipedia.org/)包含(#mp-itn b a)选择器的所有元素,并打印这些元素的 title , herf 属性。维基百科 国内无法访问,所以上面这段代码运行会报错。
改造后可运行的代码如下:
publicstaticvoidmain(String[]args)throwsIOException{
Documentdoc=Jsoup.connect("https://www.baidu.com/").get();
ElementsnewsHeadlines=doc.select("a[href]");
for(Elementheadline:newsHeadlines){
System.out.println("href:"+headline.absUrl("href"));
}
}
Jsoup 的工作原理,首先需要指定一个 URL,框架发送 HTTP 请求,然后获取响应页面内容,然后通过各种选择器获取页面数据。整个工作流程如下图:
以上面为例:
Documentdoc=Jsoup.connect("https://www.baidu.com/").get();
这行代码就是发送 HTTP 请求,并获取页面响应数据。
ElementsnewsHeadlines=doc.select("a[href]");
定义选择器,获取匹配选择器的数据。
for(Elementheadline:newsHeadlines){
System.out.println("href:"+headline.absUrl("href"));
}
这里对数据只做了一个简单的数据打印,当然这些数据可写入文件或数据的。
获取豆瓣读书 -> 新书速递中每本新书的基本信息。包括:书名、书图片链接、作者、内容简介(详情页面)、作者简介(详情页面)、当当网书的价格(详情页面),最后将获取的数据保存到 Excel 文件。
目标链接:https://book.douban.com/latest?icn=index-latestbook-all
项目引入 jsoup、lombok、easyexcel 三个库。
4.0.0
org.example
JsoupTest
1.0-SNAPSHOT
1.8
1.8
org.jsoup
jsoup
1.13.1
org.projectlombok
lombok
1.18.12
com.alibaba
easyexcel
2.2.6
publicclassBookInfoUtils{
publicstaticListgetBookInfoList(Stringurl)throwsIOException{
ListbookEntities=newArrayList<>();
Documentdoc=Jsoup.connect(url).get();
ElementsliDiv=doc.select("#content>div>div.article>ul>li");
for(Elementli:liDiv){
Elementsurls=li.select("a[href]");
ElementsimgUrl=li.select("a>img");
ElementsbookName=li.select("div>h2>a");
ElementsstarsCount=li.select("div>p.rating>span.font-small.color-lightgray");
Elementsauthor=li.select("div>p.color-gray");
Elementsdescription=li.select("div>p.detail");
StringbookDetailUrl=urls.get(0).attr("href");
BookDetailInfodetailInfo=getDetailInfo(bookDetailUrl);
BookEntitybookEntity=BookEntity.builder()
.detailPageUrl(bookDetailUrl)
.bookImgUrl(imgUrl.attr("src"))
.bookName(bookName.html())
.starsCount(starsCount.html())
.author(author.text())
.bookDetailInfo(detailInfo)
.description(description.html())
.build();
//System.out.println(bookEntity);
bookEntities.add(bookEntity);
}
returnbookEntities;
}
/**
*
*@paramdetailUrl
*@return
*@throwsIOException
*/
publicstaticBookDetailInfogetDetailInfo(StringdetailUrl)throwsIOException{
Documentdoc=Jsoup.connect(detailUrl).get();
Elementscontent=doc.select("body");
Elementsprice=content.select("#buyinfo-printed>ul.bs.current-version-list>li:nth-child(2)>div.cell.price-btn-wrapper>div.cell.impression_track_mod_buyinfo>div.cell.price-wrapper>a>span");
Elementsauthor=content.select("#info>span:nth-child(1)>a");
BookDetailInfobookDetailInfo=BookDetailInfo.builder()
.author(author.html())
.authorUrl(author.attr("href"))
.price(price.html())
.build();
returnbookDetailInfo;
}
}
这里的重点是要获取网页对应元素的选择器。
例如:获取 li.select("div > p.color-gray") 中 div > p.color-gray 是怎么知道的。
使用 chrome 的小伙伴应该都猜到了。打开 chrome 浏览器 Debug 模式,Ctrl + Shift +C 选择一个元素,然后在 html 右键选择 Copy ->Copy selector,这样就可以获取当前元素的选择器。如下图:
为了数据更好查看,我将通过 jsoup 抓取的数据存储的 Excel 文件,这里我使用的 easyexcel 快速生成 Excel 文件。
Excel 表头信息
@Data
@Builder
publicclassColumnData{
@ExcelProperty("书名称")
privateStringbookName;
@ExcelProperty("评分")
privateStringstarsCount;
@ExcelProperty("作者")
privateStringauthor;
@ExcelProperty("封面图片")
privateStringbookImgUrl;
@ExcelProperty("简介")
privateStringdescription;
@ExcelProperty("单价")
privateStringprice;
}
生成 Excel 文件
publicclassEasyExcelUtils{
publicstaticvoidsimpleWrite(ListbookEntityList){
StringfileName="D:\\devEnv\\JsoupTest\\bookList"+System.currentTimeMillis()+".xlsx";
EasyExcel.write(fileName,ColumnData.class).sheet("书本详情").doWrite(data(bookEntityList));
System.out.println("excel文件生成完毕...");
}
privatestaticListdata(ListbookEntityList){
Listlist=newArrayList<>();
bookEntityList.forEach(b->{
ColumnDatadata=ColumnData.builder()
.bookName(b.getBookName())
.starsCount(b.getStarsCount())
.author(b.getBookDetailInfo().getAuthor())
.bookImgUrl(b.getBookImgUrl())
.description(b.getDescription())
.price(b.getBookDetailInfo().getPrice())
.build();
list.add(data);
});
returnlist;
}
}
最终的效果如下图:
以上就是从想法到实践,我们就在实战中使用了 jsoup 的基本操作。
完整代码地址:https://github.com/hellowHuaairen/JsoupTest
Java HTML Parser 库:jsoup,把它当成简单的爬虫用起来还是很方便的吧?
为什么会讲爬虫?大数据,人工智能时代玩的就是数据,数据很重要。作为懂点技术的我们,也需要掌握一种获取网络数据的技能。当然也有一些工具 Fiddler、webscraper 等也可以抓取你想要的数据。
教程至此,你应该也能对 jsoup 有一些感觉了吧。编程是不是也特别有意思呢?参考我上面的实战案例,有好多网站可以实践一下啦~欢迎在评论区晒你的实战。
版权声明:我们致力于保护作者版权,注重分享,被刊用文章【html项目案例实战(用)】因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自自研大数据AI进行生成,内容摘自(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供学习参考,不准确地方联系删除处理!;
工作时间:8:00-18:00
客服电话
电子邮件
beimuxi@protonmail.com
扫码二维码
获取最新动态
