欧美日市场已经远去,面对一带一路市场,外贸企业进行SEO的时候,一般的研究都是从实际角度出发,认为SEO可以使企业赢得利润,实现企业目标,很少有文献提出企业进行SEO的理论原因,本文从互联网时代的用户相关的理论出发,解释了企业选择SEO的理论原因。多数情况下浏览者都不由自主的以“F”型的模式浏览网页,这种基本恒定的阅读习惯决定了网页呈F形的关注热度。
搜索引擎包括很多种类,比如全文索引、目录索引、元搜索引擎、垂直搜索引擎、集合式搜索引擎等。本文研究的谷歌是典型的全文索引搜索引擎。全文索引搜索也是目前广泛应用的主流搜索引擎,这类搜索引擎是从互联网抓取各个网站的信息(主要是网页文字),建立数据库,并能检索与用户查询条件相匹配的记录,按一定的顺序返回结果。在研究谷歌搜索引擎的工作过程时,我们也可以明白为什么在进行SEO时要特别重视某些因素的优化,其实这些因素都是根据搜索引擎的工作原理而提出来的。
谷歌搜索引擎的工作过程一般可以分为下面的步骤:
爬行
搜索引擎派出“蜘蛛”在互联网上跟踪网页的链接,所谓“蜘蛛”,即spider,或被称为机器人robot,是搜索引擎用来爬行和抓取网页的一种程序,因为这些程序像蜘蛛一样在网络间爬来爬去,反反复复,不知疲倦,因此形象地称这些机器人程序为“蜘蛛”。搜索引擎派出“蜘蛛”从一个链接跟踪另一个链接,以极快的速度不间断地爬行这些链接,当然“蜘蛛”的爬行也是遵循一定的规则的,一般有深度优先和广度优先两种规则,不管哪种规则,“蜘蛛”都是跟踪已有的数据库的网页中的链接,以发现更多的网页,因此跟踪网页的链接是搜索引擎发现新网址的最基本的办法。因此对于网站来说,若是其他网站有指向自己网站的链接,即导入链接,那么自己的网站被搜索引擎发现的可能性就更大,这也是为什么网站如此重视导入链接,普遍对导入链接进行优化的原因;有越多的网站指向自己的网站,网站被“蜘蛛”发现的概率越高,被索引的可能性越高;而且若指向自己网站的那些网站质量比较高,那么自己的网站被“蜘蛛”当成高质量网站的可能性也越高,因此企业网站进行SEO优化时非常重视导入链接的数量和质量;另外也可以通过提交站点地图的方式通知“蜘蛛”来索引自己的网站。
抓取和存储
“蜘蛛”跟踪链接爬行到网页,并把爬行和抓取的数据存入原始页面数据库,其页面数据与用户浏览器得到的html内容是完全一样的,“蜘蛛”在抓取页面的时候也会做一定的重复内容检测,一旦遇到权重很低的网站上有大量抄袭、复制的内容,可能就会中途放弃对该页面的爬行,这也是为什么很多网站没有被搜索引擎收录的原因。其实“蜘蛛”跟人有相似之处,“蜘蛛”也喜欢新鲜的东西,当“蜘蛛”发现网站内容是原创,跟别的网页几乎完全不同,那么“蜘蛛”会特别喜欢这些内容,会快速爬行过来并且抓取到搜索引擎的数据库中的。
因此,外贸企业进行SEO时必须注意网站内容的原创性,尽量避免复制别人网站的内容,对于一般网站来说,读者很少会仔细的逐字逐句的看网页的内容,所以每页不一定要填充很多内容。但读者一般很关注网页的前两段,因此要重视网页前两段内容的写作。另外尽量将主要的关键词提早在标题、副标题、段落的前部展现给读者,读者可以提早关注到该网页的主要内容,从而决定是否继续阅读下去。而在搜索引擎结果页面,用户的浏览习惯也是F型,人们的眼光普遍关注自然******的最前面1~3个搜索结果,而对4~10的搜索结果是一带而过,因此网站******在搜索结果页的位置直接决定了网站受关注的程度,这也是为什么众多企业力图把自己的网站优化到前三名的原因。