有人知道如何请求谷歌重新抓取一个网站吗?如果可能的话,这应该不会持续几个月。我的网站在谷歌的搜索结果中显示了一个旧标题。我如何用正确的标题和描述来显示它?


通常的方法是在你的谷歌网站管理员工具中重新提交你的网站,或者在这里提交:http://www.google.com/addurl/


谷歌表示它无法控制您的站点何时被重新爬取。无论如何,你也可以看看这篇关于“强迫重爬”的文章,我自己没有尝试过,但如果你绝望了,值得一试。

另一方面,我可能会补充说,你要确保你有一个sitemap.xml,因为这也将有助于SEO。


有两种选择。第一个(也是更好的)方法是在网站管理员工具中使用Fetch作为谷歌选项,Mike Flynn评论过。以下是详细说明:

登录:https://www.google.com/webmasters/tools/ 如果您还没有添加站点,请使用“添加站点”按钮添加并验证该站点 单击要管理的站点名称 点击抓取->取为谷歌 可选:如果你只想做一个特定的页面,输入URL 点击获取 点击提交索引 选择“网址”或“网址及其直接连结” 单击OK,就完成了。

使用上面的选项,只要可以从初始页面上的某个链接或它所链接到的页面上到达每个页面,谷歌就应该重新抓取整个页面。如果您想显式地告诉它要在域上抓取的页面列表,您可以按照说明提交站点地图。

你的第二个选择(通常更慢)是,正如seanbreeden指出的,在这里提交:http://www.google.com/addurl/

2019年更新:

登录-谷歌搜索控制台 添加一个站点并使用可用的方法进行验证。 在控制台进行验证后,单击URL Inspection。 在顶部的搜索栏中,输入您的网站URL或自定义URL进行检查并输入。 在检查之后,它将显示一个请求索引选项 点击它,GoogleBot将把你的网站添加到队列中进行爬行。


据我所知,如果你重新提交一个站点地图,它将触发和爬虫你的网站。


如今,对一个网站的重新访问在很大程度上取决于它的受欢迎程度、权威性和内容变化的频率。拥有一个包含所有url的sitemap.xml总是更好的。您还可以设置每个URL条目的lastmod标签。如果你不滥用它,爬虫会考虑它。