内部链接建设战略的12条建议

  在网页设计方面,关于内部链接有一个不容否认的道理:这是不可避免的,毕竟,超链接是浏览互联网并从一个网页跳到另一个网页的主要手段。

  它影响的不仅仅是SEO,与链接相连的网页形成了人或机器无法使用的网站。搜索引擎爬虫只能索引他们可以找到的页面,为了找到它们,他们需要链接 – 与人类没有什么不同。(为什么我们将我们的未来再次托付给机器人?)

  这一事实本身就应该激励任何网站管理员在每次创建网站时努力发展适当的内部链接结构。因为依赖于它,内部链接是SEO中最有力的武器之一。现在,你如何用这种武器来寻找最好的排名?

  1.保持页面之间的路径短

  让你的网页容易找到。无论你还在百度搜索还是已经到达你的目的地,寻找你需要的页面不应该花太长时间。经验法则是,同一网站上的两页不应超过三次点击。无论您目前在浏览器中打开哪个页面,都必须有一个通往不同页面的简短路径。当您计划您的网站结构时,请牢记这一原则。

  2.创建大量可链接的高质量内容

  内部链接需要在页面之间传播权限。有许多内部链接可以做到这一点的最佳方式是什么?当然有很多很棒的内容!

  页面内和页外SEO的联合为您的网站提供尽可能多的高权限页面,您可以获得。一旦你拥有了它们,这只是一个策略性地放置你的内部链接并让它们完成工作的问题。

  3.直接链接需要的地方

  一个链接充当了一个渠道,允许链接从一个页面流向另一个页面,增加了搜索引擎眼中的后者的权威性。外部链接(从另一个域到你的链接)和内部链接(同一个域内的链接)都是如此。

  网站页面所拥有的排名权力总是应该成为您内部链接策略的一个因素。哪些网页可以使用更多链接以便在搜索结果中更清晰可见?哪些页面可以成为链接的优秀供应商?

  4.不要过多的链接

  这很容易让人感到不安,并且创造太多的内部链接,而这些链接不一定非要。内部链接策略背后的想法是构建一个允许更重要的页面拥有更多权限的结构。通过将链接从需要它的页面引导出来,请不要让自己陷入脚下。

  5.确保你的内部链接是相关的

  你知道来自非自然来源的反向链接如何将你的网站在搜索结果中的位置置于危险之中?内部链接也是如此。从一个在线购买夏季短裤到一篇关于量子物理的文章没有任何背景,只会让用户感到困惑(尽管在这种情况下,我怀疑上下文会有多大帮助)。

  6.注意页面上的链接数量

  这是关于搜索引擎蜘蛛的一个有趣的事实。他们可以在单个页面上抓取的链接数量不是无限的:大约是150个。根据您拥有的网站类型,此数字可能太低或太高,以至于您无需担心。无论如何,超过此限制的链接对于抓取工具而言都是不可见的。如果你打算在单个页面上有这么多,你可能想要考虑他们的顺序,并决定要牺牲哪些隐晦。其中一些最终会通过无链接果汁,即使它们是nofollow链接。

  7.不要在网站页脚中放置太多链接

  页脚是有用的,在这里没有分歧。他们可以快速访问网站上的每个主要页面,无论用户目前在哪里。然而,页脚充满了链接看起来像一团糟,很难找到用户需要的东西。还有每页的爬行限制也要考虑。

  8.正确使用锚文本

  锚文本的作用不仅仅是向用户发出信号,以便打开新页面。它们也被搜索引擎视为他们链接页面的关键词。为相同关键词优化网站的多个页面称为关键字,它听起来很不愉快:它使得搜索引擎很难决定哪个页面应该排在相关关键字之上。因此,网页排名并不高。

  在链接到不同的页面时,不要使用相同的锚文本来避免关键字的自相残杀。

  9.不要让你的内部链接“Nofollow”

  您可以在链接中放置rel=“nofollow”属性。这样做会告诉搜索引擎爬虫不要访问链接的页面,也不会通过排名权。一些网站管理员试图将他们的内部链接标记为“nofollow”,并对他们网站上的链接流量施加更多控制。

  10.以HTML格式制作您的链接

  超链接是这样的:

  锚文本当你想创建自己的网站时,这是你学习的第一件事情之一。但是,HTML不是唯一可用于编写链接的语言;?例如,JavaScript也可以做到这一点。

  var str=“锚文本”;var result=str.link(“//www.simcf.cc/”);

  问题是,用其他语言制作的链接可能会被搜索引擎无法抓取,或者传递的权限较小,具体取决于它们的使用方式。这就是为什么坚持HTML链接更好。

  11.注意不能被抓取的链接

  有可能把链接放在搜索引擎蜘蛛永远不会找到它的地方。链接注定永不被抓取的地方包括:

  Flash,Java或其他插件:它们内部的链接不能被蜘蛛访问。

  损坏的JavaScript代码:当代码不起作用时,链接也不会。

  提交表单:抓取工具不会尝试在您的网站上提交表单。

  内部搜索框:抓取工具不会在网站上执行搜索。

  包含数百个链接的页面:蜘蛛的爬行限制为150。

  搜索引擎通常也无法抓取HTML?框架和内嵌框架内的链接,尽管可以为经验丰富的网站管理员提供解决方法。

  最后,可以使用robots.txt和机器人元标记来防止蜘蛛访问您选择的任何页面。内部链接到被封锁的页面将只对访问者有用。

  12.避免单页和404页面

  没有内部链接的页面被称为死胡同页面。它并不指向网站上的任何其他页面,这意味着它是搜索引擎爬虫的死路一条。这对用户也不利:他们只能通过按“后退”按钮或手动输入新的URL来留下这样的页面。浏览网站也不是一种舒适的方式。

收藏
0
有帮助
0
没帮助
0