索引量上升收录下降
1. 最近网站的百度索引量和收录明显下降是怎么回事
网站网络索引量是流量的基础,索引量数据的每一个变动都拨动着站长敏感的神经,“索引量下降之后该如何着手分析”一直是各位讨论的热门话题,不管是论坛,贴吧,还是QQ群,提关于索引量问题的人都是挺多的,阿峰特意在网上搜集了这个史上最全的网站网络索引量下降的原因及解决方法,来源绝对可靠,希望有关网站索引量的问题到此打住,希望您在看了此篇文章以后,不会再有疑问。 一、网络索引下降分析简图 网络索引量 这张图上面已经清楚的罗列出来了导致网站网络索引量下降的原因了,主要有两方面的原因,一方面是网络自己的原因,比如常见的配额再分配原因,数据异常错误原因,地区性数据异常,接口调用数据错误、数据丢失、数据备份衍生异常等。另一方面就是网站自身的原因导致了。接下来先说说网站自身哪些原因会导致网络索引量下降。 二、导致网站网络索引量下降的网站方的原因 1、内容数据所在的网址url未规范统一 原因:自己站点url未规范统一,多域名都可以200状态正常访问网页内容;一域名下出现多种url形式可以访问相同内容,如大小写url、url规则变更等。 解决:选择主域名(或主url),其他域名下的所有url都301重定向到主域名(或主url),并站长工具提交域名改版(或目录url改版) 很多网站是动态静态路径相结合,首页的访问路径也不统一,通过域名能访问首页,域名+index.html也是首页,域名+index/index.html还是访问的首页,这就是问题了。 2、外部平台使用己站数据 原因:市场合作,站点数据调用到其他平台上;内容主动外发,推广人员完整转发自有内容到高质量平台——这两个原因都有可能导致搜索引擎收录了外部平台的内容而拒绝了原网站内容。 解决:使用站长平台链接提交工具的主动推送功能,及时提交网站新出现的链接,延迟将内容调用到其他平台的时间; 这个问题,简单的说就是seoer把自己的高质量原创内容当做外链发到了别的高权重网站,被先收录了,导致自己网站发布的却的不收录了。阿峰还常被人问到发外链发自己网站的内容好不好,是不是等到收录再发,发了会不会被认为自己的站是抄袭的。其实这个问题不必要纠结,就拿阿峰的博客来说吧。技术性的文章我肯定是先发布自己博客,等到收录以后才回去发布到其它平台,但是活动性的内容,那就不用考虑着是不是首发了,活动信息本来就是需要更多的人看见的,目的是广而告之而不是排名。 延伸阅读:论坛签名还有用吗,是不是垃圾外链? 天天发外链有用吗 警惕垃圾外链导致网站降权排名下降 原因:被镜像,用户通过其他举办主体的域名或url直接可访问己方内容。 解决:关注域名解析安全和服务器安全;绑定唯一可解析的域名或唯一可访问的url;页面内容中链接使用绝对地址 3、站点受青睐度下降,这与网页内容相关 原因:内容质量度下降,就是说网站的内容太烂大街了。 解决:提高内容质量度,详见网络站长学院相关内容;杜绝简单拷贝,多做整合信息。 原因:更新量及频率下降,好久不更新了,索引下降。 解决:稳定的更新频率,视内容发展情况,扩充编辑团队,生产更多新内容,让网站索引避免下降,持续增加。(当更新量及频率下降明显,那么配额就会下降,首先表现抓取频次下降,导致索引量下降) 原因:时效性信息消失。 解决:时效性的信息,大部分一般在数据库不会长期保留,所以需要持续挖掘新的时效信息点,整合相关内容。 这种情况对于新闻源网站应该是比较常见的,不过也没什么,已经失去时效性的内容留着也没用。如果您做的事新闻源网站推荐您认真阅读这篇文章:2015年文章怎样才会被网络新闻源收录 原因:部分区域出现不良信息 解决:杜绝大量外链软文、恶劣弹窗广告、非法敏感类信息、专门针对搜索引擎作弊的内容等 4、触犯惩罚算法 解决:关注站长工具消息和网络网页搜索动态。按官方公告说明来整改站点,并进行反馈,然后等待算法更新。 5、特型url不被信任 解决:定制各类url的索引查询规则;定位索引量下降的特型url;排查该类url当日、前一日、本周、历史索引情况;找出未被入库的数据可能存在的问题;处理完后,增强该类url与网络数据沟通(途径有sitemap、批量提交url、数据推送等)。 6、站点被搜索引擎信任度下降 原因:非法投票嫌疑(链接工厂等) 解决:珍惜自己页面的投票权,对于劣质网页坚决不投票,尽量减少站点的导出链接。 原因:主题变动(如从教育领域跨入医疗领域) 解决:将旧领域的网页进行死链处理后向网络进行提交,封禁相关旧url的被访问权,然后再上线新主题相关内容,加强对网络的数据提交。 原因:受牵连,相同ip下非法站点偏多,同一域名所有人举办的网站大都被惩罚且情况恶劣等。 解决:离开恶邻,获取搜索引擎的各产品的相关反馈方式,请求给予解禁,等待恢复正常索引。 原因:政策性原因,如香港主机、国外主机站点由于各种你懂的原因,稳定性可能较差。 解决:国内主机备案,合法符合政策经营 7、网页模板相关 原因:主体内容区域对蜘蛛的限制 解决:取消登陆查看信息等限制,让蜘蛛便捷畅快的“采集”到己站数据 原因:启用了对蜘蛛不友好的技术,比如全flash站点,过多使用js代码等 解决:对需要蜘蛛识别的内容,不要启用对蜘蛛不友好的技术来调用。 原因:响应式模板干扰蜘蛛识别页面类型(pc、移动) 解决:提交特定的url对应关系(尽量parrten级);meta标记移动版本url及适合浏览的设备;自主适配;增强pc、移动不同模板源码标签的区分度,帮助网络识别页面类型 8、源码相关 原因:源码错误较严重,如编码错误、标签使用错误等;源码改动严重,蜘蛛“采集”数据后重新观察分析;某类url下的TD(网页title、description)变化,如变化比例大、变化页面量大,页面进行更改后会重走建索引库流程,如果页面质量达不到建索引库标准会从线上消失 解决:校验源码,准确的源码是蜘蛛“采集”数据进行分析的基础;link内链结构、url地址形式、页面主题、页面各区域html标记等尽量维持改动前的情况;逐步、分期更换TD(网页title、description),结合页面主题、用户实际需求来制定合理的TD,不欺骗不误导用户。 9、已入库的url对蜘蛛状态有变化 原因:robots声明,禁止蜘蛛抓取 解决:查看网络站长工具robots及抓取情况。 原因:url规则变化,原有url无法访问。 解决:特别是linux和win服务器之间的数据迁移,可能会出现大小写url支持变化,确保各类url规则不变化。url必须重构的时候,做好旧新url301重定向,站长工具提交改版需求。 原因:提示错误页面 解决:由于误删,则可以数据恢复,并维持url对应网页内容的更新变化,提高抓取频次。如果确定要删除,那么提交死链,删除死链后,再robots禁止,这种情况的索引下降无需担忧。 原因:被入侵 解决:防止url对蜘蛛进行非法跳转操作;防止url对应的网页内容对蜘蛛出现内容大变化,特别是一些违法乱纪的内容 10、DNS问题 原因:DNS问题,dns不稳定;dns不安全。 解决:选择可靠的dns服务;沟通强调对蜘蛛的稳定性;防止dns解析到非正常ip;防止解析的网站ip频繁变动。防止dns管理漏洞,导致被恶意解析;防止dns解析挂靠在小代理等技术能力、管理规范、道德法律约束都欠缺的平台上。 11、服务器问题 原因:可访问性差 解决:尽量让目标地区所有运营商来路的用户都能在3秒内打开网站,最佳1秒内;监控网站运行状态,合理设置目标地区的所有运营商监控节点及监控项目、监控频率 原因:屏蔽网络ua或ip 解决:多利用网络站长工具,查看网络抓取网页的情况,可见 原因:防刷压力值设定 解决:将蜘蛛解析到专用空间;如出现访问陡增的ip,查看是否为蜘蛛再确定是否禁止访问。 三、导致网络索引量下降的常见原因——网络方原因 原因:配额再分配,同类数据量接近索引分配总额,配额量再分配,有升的就会有降的。 解决:超过竞品,争取高额分配。 原因:数据异常错误,错误惩罚。应对某类作恶行为而新算法上线,但由于蝴蝶效应,导致部分站点被错误惩罚而清除大量索引。 解决:反馈网络方,请求解除惩罚。 原因:地区性数据异常,部分地区数据抓取或查询异常,导致误判站点情况而清除相应索引数据或输出错误索引量,如网络dns系统升级事件。 解决:反馈网络方,由网络检查各地蜘蛛执行情况。 原因:接口调用数据错误、数据丢失、数据备份衍生异常。 解决:反馈网络方,由网络检查相关数据情况。
2. 百度索引量一直在增加 为什么收录一直在掉
你好,来这需要结合网站自自身在网络中的权重来说明。我们都知道,一个新网站上线后,只要有外链指向该新网站,那么网络蜘蛛是会沿着链接去该网站抓取内容的。换种说法就是网络“只收录,不放出”。在网络统计中,网络用了“索引量”这个词来描述它的这个功能的作用。我们可以理解,所谓的索引量,就是网站在网络中,只收录了的那部分内容。而Site命令,是查询已经在网络中展示的内容。换言之,就是“已放出”的内容。这样我们就可以理解,为什么Site命令和网络统计中网站索引量不一致的问题所在了。
定期更新网站内容有利于增加网络收录和放出页面数量和速度。