网站优化

Robots.txt禁止垃圾流氓蜘蛛大全

我的站长站 2023-04-24 人阅读

这里主要介绍的Robots.txt方法来禁止垃圾流氓蜘蛛,Robots.txt方法只能针对遵循此规则的蜘蛛,添加到Robots.txt文件内即可,代码如下:

User-agent: AhrefsBot
Disallow: /
User-agent: DotBot
Disallow: /
User-agent: SemrushBot
Disallow: /
User-agent: Uptimebot
Disallow: /
User-agent: MJ12bot
Disallow: /
User-agent: MegaIndex.ru
Disallow: /
User-agent: ZoominfoBot
Disallow: /
User-agent: Mail.Ru
Disallow: /
User-agent: SeznamBot
Disallow: /
User-agent: BLEXBot
Disallow: /
User-agent: ExtLinksBot
Disallow: /
User-agent: aiHitBot
Disallow: /
User-agent: Researchscan
Disallow: /
User-agent: DnyzBot
Disallow: /
User-agent: spbot
Disallow: /
User-agent: YandexBot
Disallow: /
User-agent: DataForSeoBot
Disallow:

大部分流氓蜘蛛只所以叫流氓,就是他们根本不认这个,所以我的站长站建议大家使用禁止IP的方法最为保险。

相关推荐
  • Robots
  • robots.txt怎么设置不暴露敏感文件路径

    robots是网站跟爬虫间的协议文件,robots.txt可以用来告诉对应的爬虫被允许的权限,是搜索引擎中访问网站的时候第一个要查看的文件。robots.txt文件也可以用来限制搜索引擎不乱抓取,只抓取我们希望被收录的内容的。比如我们网站的后台就不希望被搜索抓取...

    经验分享 1132 5年前
  • 帝国CMS-robots.txt文件使用教程

    在说帝国CMS-robots.txt文件使用前先给大家解释下robots.tx是干什么的。 robots协议(也称为爬虫协议、爬虫规则、机器人协议等)也就

    帝国cms教程 669 10年前
  • 网站SEO优化Robots写法

    robots协议是我们的网站与各搜索引擎的一个协议,如果你还不知道robots协议的重要性,那么本片文章你必须认真学习了,因为robots协议对一个网站来说十分重要。那么接下来大家一起来学习什么是robots.txt。一、什么是robots.txt文件1、它是我们的网站与各...

    网站优化 424 6年前
最新更新