搜索引擎是如何工作的 (搜索引擎是如何收集信息资料的)
本文目录导航:
搜索引擎是如何工作的?
搜索引擎按其工作方式主要可分为三种,分别是全文搜索引擎(Full Text Search Engine)、目录索引类搜索引擎(Search Index/Directory)和元搜索引擎(Meta Search Engine)。
搜索引擎基本工作原理工作原理
搜索引擎的基本工作原理包含三个关键步骤:抓取网页、处理网页以及提供检索服务。
具体流程如下:首先,搜索引擎通过网页抓取程序(spider)在互联网中发现并搜集网页信息。
spider会顺着网页中的超链接,持续抓取网页。
被抓取的网页被称为网页快照。
理论上,从有限的网页出发,可以搜集到绝大多数的网页。
其次,抓取到的网页需要经过大量的预处理工作,才能为用户提供检索服务。
最重要的预处理步骤包括提取关键词、建立索引库和索引。
此外,还包括去除重复网页、中文分词、判断网页类型、分析超链接以及计算网页的重要度/丰富度等。
最后,当用户输入关键词进行检索时,搜索引擎从索引数据库中找到与关键词匹配的网页。
在提供检索结果时,除了网页标题和URL外,还会附加一段来自网页的摘要及其他相关信息,帮助用户快速判断结果的准确性与相关性。
总之,搜索引擎的基本工作原理通过三个关键步骤——抓取、处理和检索服务,实现了从互联网中高效、准确地搜集和提供所需信息的过程。
搜索引擎工作原理
搜索引擎的工作原理总共有四步:
第一步:爬行,搜索引擎是通过一种特定规律的软件跟踪网页的链接,从一个链接爬到另外一个链
接,所以称为爬行。
第二步:抓取存储,搜索引擎是通过蜘蛛跟踪链接爬行到网页,并将爬行的数据存入原始页面数据库。
第三步:预处理,搜索引擎将蜘蛛抓取回来的页面,进行各种步骤的预处理。
第四步:排名,用户在搜索框输入关键词后,排名程序调用索引库数据,计算排名显示给用户,排名过程与用户直接互动的。
不同的搜索引擎查出来的结果是根据引擎内部资料所决定的。
比如:某一种搜索引擎没有这种资料,您就查询不到结果。
定义
一个搜索引擎由搜索器、索引器、检索器和用户接四个部分组成。
检索器的功能是根据用户的查询在索引库中快速检出文档,进行文档与查询的相关度评价,对将要输出的结果进行排序,并实现某种用户相关性反馈机制。
起源
所有搜索引擎的祖先,是1990年由Montreal的McGillUniversity三名学生(AlanEmtage、Peter
Deutsch、BillWheelan)发明的Archie(ArchieFAQ)。
Archie是第一个自动索引互联网上匿名FTP网站文件的程序,但它还不是真正的搜索引擎。
由于Archie深受欢迎,受其启发,NevadaSystemComputingServices大学于1993年开发了一个Gopher(GopherFAQ)搜索工具Veronica(VeronicaFAQ)。
参考资料来源:
搜索器的功能是在互联网中漫游,发现和搜集信息。
索引器的功能是理解搜索器所搜索的信息,从中抽取出索引项,用于表示文档以及生成文档库的索引表。
用户接口的作用是输入用户查询、显示查询结果、提供用户相关性反馈机制。
AlanEmtage等想到了开发一个可以用文件名查找文件的系统,于是便有了Archie。
Archie是一个可搜索的FTP文件名列表,用户必须输入精确的文件名搜索,然后Archie会告诉用户哪一个FTP地址可以下载该文件。
Jughead是后来另一个Gopher搜索工具。
文章评论