索引,并且任何链接值都将传回页面的原始、规范的网络版本。 看看这是怎么回事?我挑战你给我任何重复内容的情况,我将能够找到一个比规范标签更适合您的 SEO 计划的解决方案,至少从纯粹的 SEO 最佳实践的角度来看是这样。 我只知道有人会将 robots.txt 文件作为重复内容解决方案。在此之前,请记住 robots.txt 文件旨在阻止搜索引擎索引某些页面或目录。它不会整合链接汁,基本上会造成死胡同。在您考虑将 robots.txt 文件用于指向XML站点地图以外的任何用途之前,您应该查看我最近关于“严重的 Robots.txt 滥用和高影响解决方案”主题的帖子。
是否仍想使用规范标签,因为除了 SEO 之外的其他原因 女性电话号码数据 ?也许您的 IT 部门并没有坐等您的下一个大型 SEO 项目? 一两句警告 1. 搜索引擎支持不够完善 搜索引擎对规范标签的支持程度差异很大。Google 在单个域和多个域上都支持它。Bing 认为规范标签是一种“提示”,我还没有听说过任何影响 Bing 索引的规范标签实现。你听说过吗?肯定有一个…… 2. 有更好的重复内容修复方法 首先纠正生成重复内容的系统是最好的解决方案。如果这不可行,请考虑其他解决方案,例如 301 重定向和元 noindex 标签。
3. 错误的实施可能会带来灾难 如果您要实施 rel 规范标签,请在发布之前确保其正确无误。请查看 Pete 博士的最新帖子《灾难性规范化》以了解他的测试。并非每个网站都能像 Pete 博士一样幸运地在规范标签实施失败后恢复。我们在问答中经常看到这样的例子。 以下列出一些主张避开这种做法的帖子。 Ian Laurie 的《为什么我仍然讨厌 Rel Canonical》 Stephan Spencer 的规范标签尚不可靠 Adam Audette 的Link Canonical 正在打破网站 现在怎么办? rel canonical 标签有它的作用。