您可以每周引入 500 个网站页面,供 Google 机器人检查并使用此部分建立索引。 Jhon Muller 作为 Google 代表在Google 站长论坛版块中回应其中一位用户的类似问题时表示: 过度使用“Fetch as Google”部分不会受到处罚,Google 机器人也不会忽略您的网站,但恶意链接和重复内容仍可能导致您的网站被罚款。 通过谷歌获取信息 Fetch as Google的主要应用 请记住,当您在网站上创建新页面或对之前的页面之一进行更改时,将使用“Fetch as Google”。对具有固定内容的索引页面使用此工具不会也不会影响您在 Google 中的排名。
该工具仅用于提高网站页面的索引速度,不会影响 Whatsapp 数据库 其在 Google 结果中的排名或页面关键字的选择。 件?文件的功能是限制 Google robots 和其他搜索引擎对您网站内容的访问。这些机器人完全自动运行,它们会确保其上有文件,并且内容访问不受限制。互联网上的所有标准机器人都会遵守这些规则和限制,不会访问和索引您的页面,但垃圾邮件机器人不会注意此文件。如果您想维护某些内容的安全并将其隐藏在互联网机器人的视线之外,最好使用页面密码。 在实践中,使用文件可以让您仅为互联网用户设计网站页面,而不必担心重复内容、该页面上存在许多链接以及对网站 SEO 的负面影响。
它还允许您从搜索引擎中隐藏无价值和低内容的页面,以便您网站上的机器人不会浪费时间为这些页面建立索引。 仅当您打算限制Google robots时才使用rt文件,并且如果您认为网站的所有页面都有被Google索引的能力和价值,则不需要此文件。即使放置一个具有相同名称的空文件也是不必要的。 要插入文件,您需要访问主机并将其复制到根目录。如果您对服务器的访问因任何原因而受到限制,您可以通过在页眉中放置元标记来限制机器人对其的访问。 要阻止所有互联网机器人从标签进入页面并限制 Google 机器人使用该标签用。