论坛风格切换
  • 58阅读
  • 0回复

百度蜘蛛抓取异常的情况和处理措施 [复制链接]

上一主题 下一主题
乐易搜
用户信息
ID
№.35564
级别
四星会员
经验
27%
性别
保密
荣誉勋章
 

收录是指网页被搜索引擎抓取到,然后放到搜索引擎的库里,等到人们搜索相关词汇的时候,可以在搜索结果页展示列表看到已经收录的页面及页面信息。我们所说的“网页被收录”即能在搜索结果页看到相关的页面。收录涉及网页被搜索引擎蜘蛛抓取,然后被编入搜索引擎的索引库,并在前端被用户搜索到这一系列的过程。对SEO优化公司专业SEO人员或者希望对自己网站进行优化的非专业SEO人员来说,了解页面是如何被搜索引擎收录的,了解搜索引擎的收录原理,都是极有好处的,能帮助你在进行网站SEO的时候尽量遵循收录的规律,提高网站被收录的比例。  搜索引擎在抓取网页的时候,可能会遇到各种情况,造成百度蜘蛛抓取异常的。异常表现为:    seo教程 13taFV dU  
1.DNS异常,搜索引擎蜘蛛无法解析您网站的IP;   @S|XGf  
2.IP封禁,IP封禁为:限制网络的出口IP地址,禁止该IP段的使用者进行内容访问,在这里特指封禁了搜索引擎蜘蛛IP;  网站建设 03C0L&  
3.UA封禁,UA即为用户代理(User-Agent),服务器通过UA识别访问者的身份。当网站针对指定UA的访问,返回异常页面(如403,500)或跳转到其他页面的情况,即为UA封禁。 #%DE;  
4.死链,页面已经无效,无法对用户提供任何有价值信息的页面就是死链接,包括协议死链和内容死链两种形式。死链会对用户以及搜索引擎造成的负面影响。   优化教程 Ub6jxib  
s[UHe{^T  
SEO优化解决蜘蛛页面抓取异常问题的办法如下。   网站制作 *}P~P$q%  
・采用搜索引擎平台提供的开发平台等数据上传通道,可以针对数据进行独立的提交。 T=ev[ mS  
・采用Sitemap提交方式。大型网站或者结构比较特殊的网站,沉淀了大量的历史页面,这些历史页面很多具有SEO的价值,但是蜘蛛无法通过正常的爬行抓取到,针对这些页面,建立Sitemap文件并提交给百度等搜索引擎是非常必要的。 蜘蛛在爬行网站的时候,会遵循网站的协议进行抓取,比如哪些网页可以给搜索引擎抓取,哪些不允许搜索引擎抓取。常见的协议有HTTP协议、HTTPS协议、Robots协议等。 HTTP协议规范了客户端和服务器端请求和应答的标准。  网站设计 B}^w_C2  
客户端一般是指终端用户,服务器端指网站。终端用户通过浏览器、蜘蛛等向服务器指定端口发送HTTP请求。发送HTTP请求会返回对应的HTTP Header信息,我们可以看到包括是否成功、服务器类型、网页最近更新时间等内容。 HTTPS协议是一种加密协议,一般用户安全数据的传输。HTTPS是在HTTP下增加了SSL层,这类页面应用比较多的是和支付相关或者内部保密信息相关的网页。蜘蛛不会自动爬行该类网页。因此,从SEO角度考虑,在建站的时候,尽量对页面的性质进行区分,对非保密页面进行HTTP处理,才能实现网页的抓取和收录。   网站开发
评价一下你浏览此帖子的感受

精彩

感动

搞笑

开心

愤怒

无聊

灌水
快速回复
限44 字节
批量上传需要先选择文件,再选择上传
做人要厚道,看帖要顶帖!
 
上一个 下一个

      鄂公网安备 42062502000001号