在互联网领域,爬虫一般指抓取众多公开网站网页上数据的相关技术,是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。
传统爬虫从一个或若干初始网页的URL开始,获得初始网页上的URL,在抓取网页的过程中,不断从当前页面上抽取新的URL放入队列,直到满足系统的一定停止条件。
聚焦爬虫的工作流程较为复杂,需要根据一定的网页分析算法过滤与主题无关的链接,保留有用的链接并将其放入等待抓取的URL队列。然后,它将根据一定的搜索策略从队列中选择下一步要抓取的网页URL,并重复上述过程,直到达到系统的某一条件时停止。
声明:本站仅提供存储服务。部分图文来源于网络,版权归原作者所有,不代表本立场或观点。如有侵权,请联系删除。
作者:wowowo,本文链接:https://www.vibaike.net/article/1643070.html