浅谈robots.txt文件相关问题
作者:某某传媒 / 2018-08-25 13:42 / 浏览次数:
  搜索引擎使用spider程序自动访问互联网上的网页并获取网页信息。spider在访问一个网站时,会首先会检查该网站的根域下是否有一个叫做robots.txt的纯文本文件,这个文件用于指定spider在您网站上的抓取范围。您可以在您的网站中创建一个robots.txt,在文件中声明该网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。
 
  请注意,仅当您的网站包含不希望被搜索引擎收录的内容时,才需要使用robots.txt文件。如果您希望搜索引擎收录网站上所有内容,请勿建立robots.txt文件。
 
  第一,Robots.txt文件大大节省服务器宽带
 
  我们都知道像emailretrievers、imagestrippers这类搜索引擎都耗用大量宽带,而且对网站没有什么太大的意义,而通过Robots.txt就可以制止不必要的爬行工作,如果你的网站是图片站的话,没有设置好Robots.txt文件的话,就会浪费大量的服务器宽带。
 
  第二、方便搜索引擎爬起工作
 
  如果你的网站内容丰富,页面很多,设置Robots.txt文件更为重要,比如你有个网站,整个站有50多个G,打开页面可能会比较慢,如果不配置好Robots.txt文件的话,蜘蛛爬行工作就会很费力,而且如果太多的蜘蛛爬行,以至会影响你网站的正常访问。
 
  第三、robots.txt文件可以制止搜索引擎索引页面
 
  你可以通过RobotS.txt文件对你的网站非公开页面进行制止蜘蛛爬行,如果你的网站后台程序、管理程序很重要不想让别人看到、那么你可以通过Robots.txt进行设置,事实上,对于某些在运行中产生临时页面的网站来说,如果没有配置Robots.txt文件的话,搜索引擎甚至会索引那些临时文件。
 
  第四、robots.txt对网站地图链接重要性
 
  如果我们把自己的网站地图链接放在robots.txt文件里,那么我们每天就不用到各个搜索引擎的站长工具或者相似的站长部分去提交自己的sitemap文件,各大搜索引擎都发布了对网站地图的新的支持方式,就是在robots.txt文件里直接包括sitemap文件的链接。目前对此表示支持的搜索引擎公司有Google,Yahoo,而中文搜索引擎公司,显然不在这个圈子内。
【翼马业务】网站建设、网站设计、服务器空间租售、网站维护、网站托管、网站优化、百度推广、自媒体营销、微信公众号
如有意向---联系我们
热门栏目
热门资讯
热门标签

关于我们 网站建设 400业务 全网云推广 网站优化 新闻动态 成功案例 联系我们 城市分站

备案号:京ICP备12039794号-3 

公司地址:河北省沧州市吴桥县长江东路南63号 咨询QQ:287603806 手机:13231715129 电话:400-9977-175 0317-5270661