首页 > 文章资讯 > 建站经验 > 正文

认识和了解搜索引擎

时间:2020-10-21 10:39 作者:吾酷网 阅读:48 次

搜索引擎的存在是为了发现、理解和组织互联网的内容,以便向搜索者提供最好的答案结果。SEO工作者十分有必要了解搜索引擎原理这方面内容。

为了在搜索结果中显示,您的网站内容首先要在搜索引擎中可见,这可以说是seo最重要的部分,如果你的网站找不到,你就不可能出现在搜索引擎结果页面中。

搜索引擎是如何工作的?

(搜索引擎的工作原理)

1、爬行:在互联网上搜索内容,找到每个页面的URL及内容。

2、索引:存储和组织在爬行过程中找到的内容。页面只有被搜索引擎存储在索引中,才有可能被搜索显示出来。

3、排列:提供最能回答搜索者查询的内容,以最有帮助的搜索结果页面进行排序。

什么是搜索引擎爬行?

爬行,是搜索引擎派出一组机器人(爬虫或蜘蛛)寻找新的页面和内容。它可以是一个网页,一个图像,一个视频,一个文件等。但不管格式如何,它们都是通过链接发现的。

爬虫从获取几个网页开始,然后跟踪这些网页上的链接找到新的URL。通过链接爬虫可以找到新的内容并将其添加到索引中—以便在搜索者寻找该URL上的内容与之匹配的信息时被检索。

什么是搜索引擎索引?

搜索引擎索引是一个庞大的数据库,包含了他们发现的所有内容,并且认为这些内容足够好,可以为搜索者提供服务。

什么是搜索排名?

当有人搜索某个关键词时,搜索引擎会检索他们的索引,提供最相关的内容,希望能够解决搜索者的查询。这种按相关性排序的搜索结果成为搜索引擎排名(排序)。一个网站排名越高,搜索引擎就越相信该网站与查询相关。

当然,你可以阻止搜索引擎抓取你的网站或者网站的部分内容,大部分搜索引擎都遵循robot协议。

搜索引擎能找到你的网站吗?

确保您的站点被爬行和索引是在搜索结果出现的先决条件。首先要做到的是尽可能多的页面被收录。如果您的网站或者页面没有被索引收录,那么可能是以下的几个原因:

1.您的网站是全新的,还没有被爬行。

2.您的网站没有外部链接,爬虫没有发现您的网站。

3.您的网站导航结构使爬虫很难有效的爬行。

4.robot.txt文件阻止搜索引擎抓取页面。

5.网站因为垃圾外链受到搜索引擎的惩罚。

如果您的网站是全新的,可以通过向搜索引擎提交URL,被搜索蜘蛛尽快发现您的站点。

robots.txt

该文件位于网站根目录,并建议搜索引擎哪些可以抓取或不被抓取。

温馨提示:

如果爬虫蜘蛛找不到网站的robots.txt文件(http状态码为40X),它继续爬行站点。

如果爬虫蜘蛛找到站点的robots.txt文件(http状态码为20X),它会遵守建议,并继续爬行网站。

如果爬虫蜘蛛没有找到20X或40Xhttp状态码(通常是服务器错误),则不会爬行您的站点。

关于外部链接

目前为止,外部链接还是搜索引擎排名算法中最为重要的一部分。关于外部链接请参考以下说法:

1.权威人士说你好,才是真的好。(注:获取权威站点的单向链接)

2.自己夸自己好,有可能好。(注:自己网站的站内链接)

3.有污点的人说你好,并不好。(注:低质量的外部链接)

搜索引擎的算法一直在变,但不变的是,为用户提供最满意的搜索结果。当我们了解了搜索引擎的工作原理后,我们便知道,只有为用户提供最满意的内容(答案),我们才有可能永远立于不败之地。

共收录0个网站,0个公众号,0个小程序,0个资讯文章,0个微信文章
首页 关于我们 联系我们 收录标准 广告合作 免责声明 友情链接
版权所有©(2017-2020)Wukur.com All Rights Reserved.
网站声明:本站所有资料取之于互联网,任何公司或个人参考使用本资料请自辨真伪、后果自负,吾酷网不承担任何责任。在此特别感谢您对分类目录网的支持与厚爱!
Top