Discuz!官方免费开源建站系统

 找回密码
 立即注册

QQ登录

只需一步,快速开始

搜索

[求助] dz3.3转https之后发现重大问题!robots封禁无效?

[复制链接]
defilolerwp 发表于 2017-10-2 10:49:37 | 显示全部楼层 |阅读模式
本帖最后由 defilolerwp 于 2017-10-2 18:19 编辑

找到原因了,没有去百度站长平台更新robots.txt
#
# robots.txt for Discuz! X3
#

User-agent: *
Disallow: /api/
Disallow: /data/
Disallow: /source/
Disallow: /install/
Disallow: /template/
Disallow: /config/
Disallow: /uc_client/
Disallow: /uc_server/
Disallow: /static/
Disallow: /admin.php
Disallow: /search.php
Disallow: /member.php
Disallow: /api.php
Disallow: /misc.php
Disallow: /connect.php
======================================


因为这些页面都暴露在外,所以也就没放前面的域名了。
robots内容的前几句,多的不写,就这几个试了试,然后后台发现蜘蛛还在抓抓取页面,
求解答,全站https后,怎么写robots不让蜘蛛乱抓??????


在线等,救命啊!!!蜘蛛乱抓啊,还有用户空间首页,那东西全是重复的啊,怎么封也封不住。。。


@格东站长网插件  @民审大大 @crx349  @传译工作室 @howfarstudio @mandy~ @hn.yhw




本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
 楼主| defilolerwp 发表于 2017-10-2 11:00:36 | 显示全部楼层
本帖最后由 defilolerwp 于 2017-10-2 16:21 编辑

在线等,求解答!!!!这问题太大了呀~~~~~~
现在是10月2号4点半,还在在线等啊,各位大大给个可行方案呗!
回复

使用道具 举报

 楼主| defilolerwp 发表于 2017-10-2 13:20:02 | 显示全部楼层
在线等,求解答!!!!这问题太大了呀~~~
回复

使用道具 举报

黄建文 发表于 2017-10-2 18:05:20 | 显示全部楼层
我对你的遭遇深表同情,不过我对此问题无能为力。百度那些蜘蛛很大可能无视规则。
回复

使用道具 举报

 楼主| defilolerwp 发表于 2017-10-2 18:19:04 | 显示全部楼层
黄建文 发表于 2017-10-2 18:05
我对你的遭遇深表同情,不过我对此问题无能为力。百度那些蜘蛛很大可能无视规则。

找到原因了,没有去百度更新robots.txt

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

手机版|小黑屋|Discuz! 官方站 ( 皖ICP备16010102号 )star

GMT+8, 2024-11-29 01:40 , Processed in 0.018386 second(s), 3 queries , Gzip On, Redis On.

Powered by Discuz! X3.4

Copyright © 2001-2023, Tencent Cloud.

快速回复 返回顶部 返回列表