识别具有适当流量潜力的新关键词并将其映射到新的登录页面,可以对网站的有机流量水平产生很大的影响。另一方面,改善网站架构需要深思熟虑。的网站架构中或者相同关键词的类似页面太多,则可能会出现问题。一些最成功的网站迁移都分配了大量资源来增强网站架构。
元数据和副本审查
确保网站的页面标题、元描述、标题和副本从旧网站顺利转移到新网站。如果您创建了新页面,请确保其已优化,并且不要定位其他页面已经定位的 whatsapp 数据库 关键字。如果您正在重建平台,请注意在创建新页面时,新平台的默认值可能会有所不同。启动一个没有经过适当优化的页面标题或任何缺失副本的新网站将会对您网站的排名和流量产生直接的负面影响。不要忘记检查是否已上传任何用户生成的内容(即用户评论、意见)。
内部链接概述
内部链接是网站的支柱。无论网站的副本优化和结构有多好,如果没有完美的内部链接方案支持,它就不足以取得成功。应审查整个网站的内部链接,包括以下链接:
主导航和次导航
页眉和页脚链接
链接到物理内容
分页链接
水平链接(相关文章、类似产品等)
垂直链接(例如面包屑导航)
跨站链接(例如国际网站的链接)
技术检查
应该进行一系列技术测试,以确保新网站的 被认为是最终接替她职位的领跑者 技术设置正确,并避免新网站上线后出现重大技术故障。
Robots.txt 文件概述
在暂存环境中创建新站点的 robots.txt 文件。这样,您就可以检查是否有错误或遗漏,并避免在新网站上线时遇到搜索引擎抓取问题。当 robots.txt 文件使用以下指令阻止搜索引擎访问时,就会发生站点迁移中的典型错误。
不允许 :/
如果不小心将其移动到实时网站(这种情况经常发生),它将阻止搜索引擎抓取该网站。当搜索引擎无法抓取已编入索引的页面时,与该页面相关 安圭拉讯息 的关键字将在搜索结果中被降级,最终该页面将被取消编入索引。
但是如果暂存网站上
的 robots.txt 文件填充了新网站上的 robots.txt 指令,则可以避免此事故。
创建新网站的 robots.txt 文件时,请确保:
它不会阻止搜索引擎访问要编入索引的页面。
它不会阻止搜索引擎呈现页面内容所需的任何 JavaScript 或 CSS 资源。
旧网站的 robots.txt 文件内容已审查完毕,必要时将被移动。
这是指新的 XML 站点地图,而不是任何不再存在的旧地图。
规范标签概述
查看网站的规范标签。查找没有规范标签或具有指向另一个 URL 的规范标签的页面,并质疑这是否是故意的。不要忘记抓取规范标签以查看它们是否返回 200 服务器响应。如果没有,您需要更新它们以消除任何 3xx、4xx 或 5xx 服务器响应。您还应该查找具有指向另一个 URL 的规范标签与 noindex 指令结合的页面,因为这两个是冲突的信号,您需要删除其中一个。