/*十有三博客*/
  • 首页
  • 关于本站
  • 网站地图
  • RSS订阅

禁止二级域名被搜索引擎蜘蛛抓取的思路

2016-07-20 十有三 0 浏览:1万+ 网站建设运维 网站维护 | 网站设计优化

之前遇到的一个问题,由于特殊的业务需求,几个二级域名不想让搜索引擎的蜘蛛进行抓取,另外这几个二级域名不需要任何权限也能浏览,总之是很奇怪的需求。后研究了下,要想让二级域名禁止百度等搜索引擎蜘蛛的抓取,可以利用robots协议来实现。

PS:关于robots协议可以网上找下相关资料,对于网站建设来说也是比较重要的知识。

这里要注意的是robots.txt是有局限的,并没办法指哪打哪,也就是没办法让你想让哪个二级域名不被抓取就能设置哪个域名。 

首先robots.txt文件必须放在网站根目录下,协议是针对网站目录而不是域名。所以二级域名的网站文件如果没放在单独的文件夹中,那么不适合使用robots.txt文件来禁止爬虫抓取。

如果二级域名网站所在的文件夹还同时绑定了其他顶级域名,使用robots协议可能导致所有绑定到此文件的域名都不会被搜索引擎蜘蛛抓取。

在robots.txt中禁用所有爬虫抓取所有路径的语法如下:

User-agent: *
Disallow: /

 


作者:十有三

出处:https://shiyousan.com/post/636046038396304849

版权声明:本文采用知识共享许可协议:署名-相同方式共享 4.0 国际(CC BY-SA 4.0)。欢迎转载本文,转载请声明出处或保留此段声明。


  • 上一篇: 阿里云ECS远程连接错误:由于一个协议错误(代码:0x112f),远程会话将被中断。请重新跟远程计算机连接
  • 下一篇: 利用负载均衡的思路提高开发电脑的配置

相关文章
  • 解决IIS出现HTTP错误500.19:工作进程无法读取 applicationhost.config 或 web.config 文件
  • 网站用户体验优化之数值显示
  • 总结IIS中使用ARR一些要注意的地方和经验-例如遇到重写规则无效的情况
  • 连续收到邮件和短信通知需要添加网页底部备案编号链接
  • 详解IIS中URL重写工具的规则条件(Rule conditions)
  • 由于 Web 服务器上的“ISAPI 和 CGI 限制”列表设置,无法提供您请求的页面

文章分类

.NET技术 123 数据库 24 Web前端 21 网站建设运维 37 操作系统与应用 66 程序猿日常 11 开发工具 12 其他随笔 13

文章标签

ASP.NET ASP.NET MVC C# CSS HTML IIS Javascript Linux MongoDB MySql SQL SQL Server Visual Studio Windows系统 版本控制系统 插件工具 服务器 搞笑娱乐 好文分享 软件应用 生活知识 手机问题 随笔 网络知识 网站设计优化 网站维护 养生保健 异常处理 硬件设备 游戏攻略

热门文章

  • IIS8如何安装和使用URL重写工具-URL Rewrite
  • 林蛋大与楚中天,朱肚皮与朱月坡
  • 解决IE11安装升级失败和在安装前需要更新的问题
  • Windows Server 2012无法安装 .NET3.5-安装角色或功能失败,找不到源文件
  • VS重构重命名的快捷键

推荐文章

  • 解决windows任务计划执行批处理文件会弹出显示命令行窗口
  • ChinaPay踩坑笔记一:在64位系统中不支持ASP支付功能
  • 骑马与砍杀 战团 秘籍/作弊指令大全/角色导入导出作弊法
  • 记录下最近onenote的无法同步问题(错误0xA0000014和0xE4010641)
  • 骑马与砍杀 无限箭枝/作弊修改箭枝数量/调整各种箭枝数量的方法

友情链接

  • Passingwind的博客
  • 码友网

知识共享许可协议 CC BY-SA 4.0本站作品采用知识共享许可协议:署名-相同方式共享 4.0 国际(CC BY-SA 4.0)。
闽ICP备15003702号
闽公网安备 35020302035102号