页面超过128k,也会不收录?
最近站长收到一个抓取优化例子,分享给各位,站长们谨记不要出现相同的情况:
站长反馈:
网站主体内容都是js,针对用户访问,没有做优化;网站针对爬虫抓取做了优化,直接将图片二进制内容放到了html中导致页面长度过长;优化后发现内容却不被百度收录!
页面质量很好,还特意针对爬虫做了优化,为什么内容反而不收录了呢?
爱站阁博客分析:
1、网站针对爬虫爬取做的优化,直接将图片二进制内容放到了html中导致页面长度过长,网站长度达164k;
2、 站点优化后将主体内容放于最后,图片却放于前面;
3、爬虫抓取内容后,页面内容过长被截,已抓取无法识别到主体内容,最终导致页面被认定为空短不收录。
90建议:
1、不建议站点使用js生成主体内容,如js渲染出错,很可能导致页面内容读取错误,页面无法抓取;
2、 如站点针对爬虫爬取做优化,建议页面长度在128k之内,不要过长;
3、针对爬取做优化,请将主体内容放于前方,避免因为抓取截断造成的内容抓取不全。