索“票房最快突破 5 亿美元电影”等特定内容,会显示来自两个域名的重复内容(加上一个安全子域名和其中一个服务器的 IP 地址 - 哎哟!): 最快突破 5 亿美元票房的电影 虽然我认为谷歌在过滤大多数关键词的重复项方面会做得很合理,但索引中存在所有这些重复内容以及浪费抓取时间还是相当糟糕的。 对于 Google(和其他搜索引擎)来说,这样做相当愚蠢。很容易就能发现,真实域名和 AWS 子域名解析到同一个 IP 地址,并且页面相同。
他们可以节省大量时间,无需抓取由于 DNS 条目重复而导致的 URL。 解决问题的根源。 作为优秀的 SEO,我们知道我们应该尽一切努力确保只有一个域名解析一个网站。目前没有办法阻止 AWS 添加公共 DNS 条目, 意大利 whatsapp 资源 因此解决这个问题的一种方法是确保如果使用 AWS 子域访问 Web 服务器,则重定向到主域。以下是使用 Apache mod_rewrite 执行此操作的示例
此修复程序很快阻止了 Googlebot 抓取我们的 amazonaws.com 子域地址,从而大大减轻了我们服务器的负载,但当我发现问题时,已有数千个页面被编入索引。由于这些页面可能没有造成任何危害,我认为我只需让 Google 找到所有 301 重定向并从索引中删除这些页面即可。所以我等了又等。一个月后,编入索引的页面数量(根据 site: 命令)完全相同。没有页面从索引中删除。 清理它。 为了帮助 Google,我决定使用网站管理员工具提交删除请求。