!
也想出现在这里? 联系我们
广告位
当前位置:首页>运营>网站运维>屏蔽垃圾蜘蛛浪费网站资源,解决宝塔面板负载100%

屏蔽垃圾蜘蛛浪费网站资源,解决宝塔面板负载100%

屏蔽垃圾蜘蛛浪费网站资源,解决宝塔面板负载100%

品自行博客今天查看服务器发现近期负载特别高,因为是Linux宝塔面板,服务器经过调试了的,流量也没有异常,所以打开网站日志查找原因,发现一些垃圾蜘蛛频繁抓紧网站页面,白白浪费服务器资源。

屏蔽垃圾蜘蛛浪费网站资源,解决宝塔面板负载100%

我们知道一般百度、google、搜狗、360的蜘蛛抓取都是正常的抓取,如果这几个搜索引擎之外的蜘蛛对我们的网站进行频繁抓取的话就得注意了,这些抓取会消耗我们网站的资源,对服务器形成压力,所以要屏蔽一些垃圾蜘蛛的抓取,这里介绍两种方法进行屏蔽

第一种方法:直接在根目录下robos.txt文件里面屏蔽掉相关垃圾蜘蛛:

第二种方法,如果是Linux宝塔面板,可以进面板,选择“网站”》“设置”》“配置文件”,将需要屏蔽的蜘蛛写进配置文件的代码中:

  1. SemrushBot,这是semrush下面的一个蜘蛛,是一家做搜索引擎优化的公司,因此它抓取网页的目的就很明显了。这种蜘蛛对网站没有任何用处,好在它还遵循robots协议,因此可以直接在robots屏蔽。
  2. DotBot, 这是moz旗下的,作用是提供seo服务的蜘蛛,但是对我们并没有什么用处。好在遵循robots协议,可以使用robots屏蔽
  3. AhrefsBot, 这是ahrefs旗下的蜘蛛,作用是提供seo服务,对我们没有任何用处,遵循robots协议。
  4. MJ12bot,这是英国的一个搜索引擎蜘蛛,但是对中文站站点就没有用处了,遵循robots协议。
  5. MauiBot,这个不太清楚是什么,但是有时候很疯狂,好在遵循robots协议。
  6. MegaIndex.ru,这是一个提供反向链接查询的网站的蜘蛛,因此它爬网站主要是分析链接,并没有什么作用。遵循robots协议。
  7. BLEXBot, 这个是webmeup下面的蜘蛛,作用是收集网站上面的链接,对我们来说并没有用处。遵循robots协议
  8. 等等、、、、

主要是将从网站日志中发现的一些异常抓取的蜘蛛屏蔽掉,我上面列举的是一些常见的对我们网站没啥用处的蜘蛛,将这些蜘蛛屏蔽掉就好了。

给TA打赏
共{{data.count}}人
人已打赏
网站运维

Linux如何手工清理/root/.homeV31.sh.lock

2022-10-19 19:17:38

网站运维

Linux宝塔面板账号密码忘了如何找回(宝塔面板账号密码怎么找回)

2022-10-19 19:18:23

声明 本站上的部份代码及教程来源于互联网,仅供网友学习交流,若您喜欢本文可附上原文链接随意转载。无意侵害您的权益,请发送邮件至 [email protected] 或点击右侧 私信:林沐阳 反馈,我们将尽快处理。
{{yiyan[0].hitokoto}}
0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索