燃文小说 > 玄幻小说 > 该书审核已经通过fxl > 第二章全文阅读

王珂接受大蔡 林筱摔伤就医gvvbbbb

bh

n

李小曼流年不利失了业,开健身会所的于莺看在眼里急在心中,打了一个电话给林筱,在电话中提起两个人共同的闺蜜李小曼失业的事情。闺蜜落难岂有不帮之理,林筱与唐健商量将李小曼找到公司做出纳,唐健不好泼林筱的冷水,同意了林筱的要求。

王珂曾在母亲的陪同下大闹唐健的婚礼,幸好大蔡挺身而出揽下黑锅,为唐健换来了清白。王母弄清王珂是在国外旅游的时候怀上孩子,虽然有些恼火,但还是积极地为王珂寻找值得托付终生的男人。对兄弟两肋插刀的大蔡进入了王母的眼中,王母经过多方打探,找到了大蔡经营的饭店,如同警察审问犯人一样,详细地盘问大蔡的背景。大蔡面对来势汹汹的王母,不敢怠慢,承认自己当初确实追求过王珂,奈何落花有意流水无情,大蔡后来只好放弃了王珂。

林母住进女儿林筱家中,了解到唐健曾经为了林筱的事业放弃自己财务总监的职务,好男儿理当如此,林母对重情重义的唐健产生了好感。

唐健为了给未来的儿子赚奶粉钱,加班到天亮,林筱一觉睡醒,发现丈夫唐健还未归来,于是下床出门寻找丈夫,不料一脚踏空在楼梯上摔了一跤,唐健与林母吓得不轻,赶紧将林筱送到医院检查。

王珂担心肚中的孩子生下来被人嘲笑,于是产生了去医院打胎的想法,可是到了医院的手术床上,她又心肠一软打消了打胎念头。

在医院门口。王珂遇到了送林筱来就医的唐健与林母,被林母冷嘲热讽了一顿,情绪低落冲到街上淋雨,在大蔡的接送下离去。大蔡的人品不输唐健,王珂为了肚中孩子的未来着想,放低姿态决定嫁给大蔡。

此一时彼一时,大蔡已经爱上了曾经为唐健布置婚礼的小容,他与小容虽然只有一面之缘,却无法自拔爱上了小容。不过,他只是单相思罢了,小容对他毫无兴趣,赞成他与王珂结婚。

王珂与大蔡走到了一起,不久之后在医院产下了孩子,大蔡还未体验与王珂恋爱的滋味,便稀里糊涂做了父亲。

林筱还未生下孩子,家中已经吵开了锅,林母与唐母为是否请月嫂产生了矛盾,唐母不赞成请月嫂,她提议与林母轮流换班照顾生下孩子的林筱。Deep Web 爬虫

Web 页面按存在方式可以分为表层网页(Surface Web)和深层网页(Deep Web,也称 Invisible Web Pages 或 Hidden Web)。 表层网页是指传统搜索引擎可以索引的页面,以超链接可以到达的静态网页为主构成的 Web 页面。Deep Web 是那些大部分内容不能通过静态链接获取的、隐藏在搜索表单后的,只有用户提交一些关键词才能获得的 Web 页面。例如那些用户注册后内容才可见的网页就属于 Deep Web。 2000 年 Bright Planet 指出:Deep Web 中可访问信息容量是 Surface Web 的几百倍,是互联网上最大、发展最快的新型信息资源[1] 。

Deep Web 爬虫体系结构包含六个基本功能模块 (爬行控制器、解析器、表单分析器、表单处理器、响应分析器、LVS 控制器)和两个爬虫内部数据结构(URL 列表、LVS 表)。 其中 LVS(Label Value Set)表示标签/数值集合,用来表示填充表单的数据源[1] 。

Deep Web 爬虫爬行过程中最重要部分就是表单填写,包含两种类型:

1) 基于领域知识的表单填写:此方法一般会维持一个本体库,通过语义分析来选取合适的关键词填写表单。 Yiyao Lu[25]等人提出一种获取 Form 表单信息的多注解方法,将数据表单按语义分配到各个组中 ,对每组从多方面注解,结合各种注解结果来预测一个最终的注解标签;郑冬冬等人利用一个预定义的领域本体知识库来识别 Deep Web 页面内容, 同时利用一些来自 Web 站点导航模式来识别自动填写表单时所需进行的路径导航[1] 。

2) 基于网页结构分析的表单填写: 此方法一般无领域知识或仅有有限的领域知识,将网页表单表示成 DOM 树,从中提取表单各字段值。 Desouky 等人提出一种 LEHW 方法,该方法将 HTML 网页表示为DOM 树形式,将表单区分为单属性表单和多属性表单,分别进行处理;孙彬等人提出一种基于 XQuery 的搜索系统,它能够模拟表单和特殊页面标记切换,把网页关键字切换信息描述为三元组单元,按照一定规则排除无效表单,将 Web 文档构造成 DOM 树,利用 XQuery 将文字属性映射到表单字段[1] 。

Raghavan 等人提出的 HIWE 系统中,爬行管理器负责管理整个爬行过程,分析下载的页面,将包含表单的页面提交表单处理器处理,表单处理器先从页面中提取表单,从预先准备好的数据集中选择数据自动填充并提交表单,由爬行控制器下载相应的结果页面[1] 。

抓取目标的描述和定义

编辑

抓取目标的描述和定义是决定网页分析算法与URL搜索策略如何制订的基础。而网页分析算法和候选URL排序算法是决定搜索引擎所提供的服务形式和爬虫网页抓取行为的关键所在。这两个部分的算法又是紧密相关的。

现有聚焦爬虫对抓取目标的描述可分为基于目标网页特征、基于目标数据模式和基于领域概念3种。

基于目标网页特征

基于目标网页特征的爬虫所抓取、存储并索引的对象一般为网站或网页。根据种子样本获取方式可分为:

(1) 预先给定的初始抓取种子样本;

(2) 预先给定的网页分类目录和与分类目录对应的种子样本,如Yahoo!分类结构等;

(3) 通过用户行为确定的抓取目标样例,分为:

(a) 用户浏览过程中显示标注的抓取样本;

(b) 通过用户日志挖掘得到访问模式及相关样本。

其中,网页特征可以是网页的内容特征,也可以是网页的链接结构特征,等等。

基于目标数据模式

基于目标数据模式的爬虫针对的是网页上的数据,所抓取的数据一般要符合一定的模式,或者可以转化或映射为目标数据模式。

基于领域概念

另一种描述方式是建立目标领域的本体或词典,用于从语义角度分析不同特征在某一主题中的重要程度。

网页搜索策略

编辑

网页的抓取策略可以分为深度优先、广度优先和最佳优先三种。深度优先在很多情况下会导致爬虫的陷入(trapped)问题,目前常见的是广度优先和最佳优先方法。

广度优先搜索

广度优先搜索策略是指在抓取过程中,在完成当前层次的搜索后,才进行下一层次的搜索。该算法的设计和实现相对简单。在目前为覆盖尽可能多的网页,一般使用广度优先搜索方法。也有很多研究将广度优先搜索策略应用于聚焦爬虫中。其基本思想是认为与初始URL在一定链接距离内的网页具有主题相关性的概率很大。另外一种方法是将广度优先搜索与网页过滤技术结合使用,先用广度优先策略抓取网页,再将其中无关的网页过滤掉。这些方法的缺点在于,随着抓取网页的增多,大量的无关网页将被下载并过滤,算法的效率将变低。

最佳优先搜索

最佳优先搜索策略按照一定的网页分析算法,预测候选URL与目标网页的相似度,或与主题的相关性,并选取评价最好的一个或几个URL进行抓取。它只访问经过网页分析算法预测为“有用”的网页。存在的一个问题是,在爬虫抓取路径上的很多相关网页可能被忽略,因为最佳优先策略是一种局部最优搜索算法。因此需要将最佳优先结合具体的应用进行改进,以跳出局部最优点。将在第4节中结合网页分析算法作具体的讨论。研究表明,这样的闭环调整可以将无关网页数量降低30%~90%。

深度优先搜索

深度优先搜索策略从起始网页开始,选择一个URL进入,分析这个网页中的URL,选择一个再进入。如此一个链接一个链接地抓取下去,直到处理完一条路线之后再处理下一条路线。深度优先策略设计较为简单。然而门户网站提供的链接往往最具价值,PageRank也很高,但每深入一层,网页价值和PageRank都会相应地有所下降。这暗示了重要网页通常距离种子较近,而过度深入抓取到的网页却价值很低。同时,这种策略抓取深度直接影响着抓取命中率以及抓取效率,对抓取深度是该种策略的关键。相对于其他两种策略而言。此种策略很少被使用。(未完待续)