seo是什么意思?seo等于搜索引擎优化,它是基于搜索引擎的一种网络营销方式,隶属于sem --- 武汉小明seo教程,专注seo优化培训!
当前位置:首页 » SEO核心技术 » 网站优化中千万要避开的蜘蛛陷阱

网站优化中千万要避开的蜘蛛陷阱

SEO核心技术 1966℃ 4评论

对于陷阱这个词我就不用再过多解释什么了,因为大家都懂的,没有谁会主动跳进陷阱,之所以有时会陷入其中,往往是遭到了别人的暗算,一旦碰到这样的情况相信不管是谁都会生气恼火。其实搜索引擎蜘蛛也跟人一样,如果让蜘蛛掉进了你设置的陷阱里,我也只能说:蜘蛛很生气,后果很严重了!因为一旦让它从陷阱里面逃出来,那么你的网站面临的将是灭顶之灾,不是降权就是K站,所以说蜘蛛大哥也不是好惹的。可能有一些人对蜘蛛陷阱的认识很模糊,其实所谓的蜘蛛陷阱说白了也就是在网站设计方面不利于蜘蛛爬行或抓取的一切障碍的总称,所以我们在网站优化的过程中一定要尽量避开这些问题:

蜘蛛陷阱


一、过多的Flash

不得不说Flash能为我们的网站增色不少,恰到好处的Flash能够让我们的网站看起来高端大气上档次,但是不要因为它有这些优点我们就可以滥用,不管什么地方都去整个Flash什么的,那样只会适得其反,之所以这么说是由于搜索引擎对Flash的抓取很不理想,偶尔用到几乎没什么影响,但是如果你的整个首页就只用了一个超大的Flash亦或是页面上面到处都是Flash,这就变成了蜘蛛陷阱。虽然搜索引擎一直在竭尽全力攻克这方面抓取的难题,但到目前为止效果还是不怎么好,所以我们也只能主动避开这些问题。

二、乱七八糟的跳转

网站的跳转方法多种多样,常见的例如:JS跳转、Flash跳转、302跳转等,而301跳转要单独来说,因为它是搜索引擎推荐和认可的跳转形式,它主要用在网站域名更改后将此域名指向彼域名,并且还可以将老域名的权重全部继承给新域名。除此之外的杂七杂八的跳转对搜索引擎来说都是不友好的,因为跳转本身就不利于蜘蛛的爬取,这也就是所谓的蜘蛛陷阱了。

三、复杂的框架结构

框架结构就目前来说算的上是网站建设界的老古董了,业界在刚开始建设网站的时候会用框架结构来设计相关的页面,在当时来讲的确提供了不少方便,但在现如今建站愈来愈简单智能的时代,框架结构逐渐落伍并且非常不利于蜘蛛爬取网站的内容,所以框架结构是被逼成了蜘蛛陷阱,老实讲这不能怪它,可是也不得不怪它,这同时也验证了一句话:落后就要挨打。

四、冗长的动态URL

搜索引擎比较喜欢静态网站,所以很多的动态网站都会使用伪静态设置。动态URL通俗的解释就是网站链接中带有各种参数、等号、问号或者其它符号而长度还很长的链接,对于那些有密集恐惧症的朋友来说这绝对是不能容忍的,恰巧的是蜘蛛也患有这种症状(哈哈哈),其实最根本的原因还是动态URL不利于蜘蛛的爬取。

五、JS脚本

对于这一点可能存在一定的争议,问题在于到底要不要把它划到蜘蛛陷阱这一块。JS在网站建设中有着举足轻重的作用,因为它能为网站实现很多酷炫的效果,但是它依旧摆脱不了不利于蜘蛛爬取的问题,就这一点来说它可以算是蜘蛛陷阱,但是它也可以用在网站的其他方面对咱们做SEO的还是有所帮助的,比如为了避免网站权重的分散,不想让一些对网站排名毫无意义的页面被收录,我们就可以用JS脚本阻止蜘蛛对该页面的抓取,而就这一点来说它又是我们做网站优化的好帮手,所以对于JS脚本这一点还是全凭自己且用且拿捏吧!


综上所述的五点就是本人对蜘蛛陷阱的总结,对于站长来说蜘蛛就是我们的朋友,如果你把这位朋友推进了陷阱,那么你的网站优化之路就注定坎坷。

喜欢 (2)or分享 (0)
发表我的评论
取消评论
表情

Hi,您需要填写昵称和邮箱!

  • 昵称 (必填)
  • 邮箱 (必填)
(4)个小伙伴在吐槽
  1. 搜索引擎爬虫,也叫蜘蛛,会通过链接爬取网站内容。因此,让蜘蛛能正常,快速的爬取我们网站的内容是seoer需要做的工作。包括但不限于:站内url层级设置,一般不超过三级;每一个页面都可相互链接,不存在孤岛页面;站内导航的设置;网站速度的优化等。其实,一套较齐备的建站程序,就可以解决很多问题。

    上海seoer2017-09-16 14:34 回复
  2. 让搜索引擎爬虫,也就是蜘蛛能正常,轻松,高效率的访问到我们的站点,是做网站seo优化的基本要求。另外,网站速度的快与慢也会影响蜘蛛的爬行效率以及抓取成本。

    seo优化技术自学网2017-09-27 21:49 回复
    • 不要使用搜索引擎站长无法识别的网页元素,如js等,不要让某些页面形成孤岛页面。

      小明seo2017-09-27 22:03 回复
  3.   搜索引擎爬虫(蜘蛛)的工作原理:
      首先从互联网页面中精心选择一部分网页,以这些网页的链接地址作为种子URL,将这些种子URL放入待抓取URL队列中,爬虫从待抓取URL队列依次读取,并将URL通过DNS解析,把链接地址转换为网站服务器对应的IP地址。
      然后将其和网页相对路径名称交给网页下载器,网页下载器负责页面内容的下载。对于下载到本地的网页,一方面将其存储到页面库中,等待建立索引等后续处理;另一方面将下载网页的URL放入已抓取URL队列中,这个队列记载了爬虫系统已经下载过的网页URL,以避免网页的重复抓取。对于刚下载的网页,从中抽取出所包含的所有链接信息,并在已抓取URL队列中检查,如果发现链接还没有被抓取过,则将这个URL放入待抓取URL队列末尾,在之后的抓取调度中会下载这个URL对应的网页。如此这般,形成循环,直到待抓取URL队列为审,这代表着爬虫系统已将能够抓取的网页尽数抓完,此时完成了一轮完整的抓取过程。

    上海seo优化公司2017-10-21 20:31 回复