更新时间:2023-05-05 15:24
重复内容通常是指网域内或网域间与其他内容完全匹配或大致类似的大量内容。大多数情况下,重复内容本身不具有欺骗性。非恶意性重复内容可能包括:
重复内容通常是指域内或多个域之间存在的、与其他内容完全匹配或大致类似的内容。大多数情况下,重复内容本身不具有欺骗性。
这里有五个所面临的问题,以及如何解决这些问题,防止他们在未来再次发生:
(1)重复的内容从动态的过滤器页面
动态过滤器的网页是一个最常见的技术问题,人们面临的网站拥有者往往会发现成千上万的人被搜索引擎收录。
一个动态的过滤器页面的例子:
解决这个问题:
经测试一些替代的修正,我们发现,使用meta robots规则是迄今为止最有效的方法来消除这种问题。这过程中,我们遵循从索引的网页:
地图的中删除。
应用元机器人规则(使用 noindex, follow)。
开始做百度谷歌网站管理员工具中的删除请求。
一旦你已经做了一些删除请求的,百度谷歌注意到,并采取了更快收录其他页面。
(2)搜索页面的重复内容
发现百度和谷歌的收录了搜索页面,是一个非常普遍的问题。
解决方法:
解决这个问题实际上是非常简单的。你只需要在robots.txt文件禁止目录,如果你不允许目录搜索目录,然后删除它在百度和谷歌网站管理员工具。
(3)重复评论网页的内容
评论页面很有意思,因为这些问题可能有所不同,这取决于你如何组织你的网站和你使用的插件。我们面临着重复内容的问题,当我们在产品页面上显示内容,但有一个单独的页面相同的内容,但我知道,这是情况并非总是如此。
因此,我们面临的情况下,我们去掉了多余的页面
为了消除这些网页上,我们只需要在robots.txt文件禁止/?,然后提交了该文件夹的删除请求。
评论网页只会导致重复内容的问题。
(4)重复的内容分页
分页版本的网页是否应该方便搜索引擎的讨论已经持续数年,但谷歌宣布推出的 rel=next/prev/all,这些页面其实是分页的。
所以,我的回答是消除重复内容的问题所造成的分页实现这些标签,也可以简化使用我们的SEO负担。
(5)重复的内容从非搜索友好的URL
网站默认情况下,采用非搜索友好的URL,并且他们似乎经常出现在一个较新的版本。如下面的例子中,通常被搜索引擎收录,并导致重复内容的问题,同时,它们所造成的重写规则的问题,这就更要注意网址URL规范化。
我会建议您的robots.txt文件中不允许这些网页,对无用的URL做301重定向然后做一个百度和谷歌网站管理员工具中的文件夹的删除请求。
1、用Nofollow标签屏蔽,这种方法很实用,但是有点麻烦。
2、用Robots.txt屏蔽无用链接,但是这有个缺点,就是这些页面虽然不被搜索引擎索引,但是权重还会从其他网页上传递进来,但是不会传递出去。于是就形成了一个权重黑洞,只进不出,不过这种方法被很多站长们利用,包括福建seo
3、Meta Noindex和 Follow。搜索引擎不会收录这些页面,但是会爬取这些页面上的链接,还是会降低蜘蛛的爬去效率。