新闻中心

媒体资讯

提供网站建设、网页设计、网络营销相关专业资讯

robots.txt:如何让搜索引擎不要抓取没用的页面


关键词:robots,页面,文件
作者:云尚网络
发布时间:2022-04-21
浏览次数:2064

| 什么是robots文件?

Robots是站点与spider沟通的重要渠道,是网站与搜索引擎爬虫之间的协议,告知哪些可抓取哪些不允许。

| 为什么要做robots文件?

网站上总有一些页面是禁止蜘蛛抓取的。例如:搜索页面、筛选页面、后台登录地址等。

| 如何制作 robots文件?

编写robots.txt文件并上传到网站根目录。

| 制作 robots.txt注意事项

● 所有搜索引擎则用星号表示

● [**]llow(允许)和Disallow(不允许)优先级

● 至少屏蔽一个,可以屏蔽:搜索结果页面/404页面

● 记得将sitemap放到Robots文件中

● 可以陆续放入更多,而不是一次性决定所有

● 网站后台地址/图片地址/下载文件地址/错误链接


上一篇:首页关键词密度布局:首页关键词分布到这5个位置更容易排名

下一篇:新站防止原创文章被盗的绝招

免费获取网站建设与品牌策划方案报价

*主要业务:网站推广、高端网站建设、集团网站建设等

ewm
业务热线:18577088886 业务QQ:1273192619 公司地址:广西南宁市高新区科园西二路万保大厦4楼
Copyright © 2014-2022 广西南宁云尚网络科技有限公司 ICP备案:桂ICP备14007327号-6
广西南宁云尚网络科技有限公司

提供陪跑式互联网增长服务

联系方式
ewm微信扫一扫

电话:18577088886

Q Q:1273192619

地址:广西南宁市高新区科园西二路万保大厦4楼


南宁网站建设   南宁网站制作
Copyright © 2014-2021 广西南宁云尚网络科技有限公司 ICP备案:桂ICP备14007327号-6 TAG聚合

QQ

在线咨询真诚为您提供专业解答服务

电话

18577088886
7*24小时服务热线

微信

云尚网站建设二维码扫一扫添加微信
TOP