会员登录欢迎进入上海启搜网络科技有限公司!

021-31009706

您现在的位置:首页>新闻资讯>seo知识>

网页多长更适合搜索引擎抓取详解

来源:启搜网络发布日期:2018-01-22浏览:

    网站主体内容都是js生成,针对用户拜访,没有做优化;可是网站特针对爬虫抓取做了优化,且将图片也直接做了base64转化;但是优化后发现内容却不被百度录入

 

    页面质量很好,还特意针对爬虫做了优化,为什么内容反而不录入了呢?

 

    工程师剖析:

 

    1、网站针对爬虫爬取做的优化,直接将图片二进制内容放到了html中导致页面长度过长,网站页面长度达164k;

 

    2、 站点优化后将主体内容放于终究,图片却放于前面;

 

    3、爬虫抓取内容后,页面内容过长被切断,已抓取部分无法识别到主体内容,终究导致页面被认定为空短而不录入。

 

    工程师主张:

 

    1、不主张站点运用js生成主体内容,如js烘托犯错,很可能导致页面内容读取过错,页面无法抓取

 

    2、 如站点针对爬虫爬取做优化,主张页面长度在128k之内,不要过长

 

    3、针对爬虫爬取做优化,请将主题内容放于前方,避免抓取切断形成的内容抓取不全