18

网站恶意采集,就连搜索也推出"石破算法"

发布时间:2022-06-14 阅读量:1 来源: 易企优

  如今,SEO行业日新月异。在内容输出方面,可以用一句话来形容,原创就像一只狗,采集满地走。长期以来,采集站一直是主要搜索引擎的头痛和攻击对象,因为它们深受毒害,内容采集和拼接像不倒翁一样顽强。

采集

  就连一万年不变的搜狗搜索,也因为采集站无法忍受,在6月17日推出了石破算法,表示会整顿网站的恶意采集,真的很奇怪。

  仔细观察就会发现,这是搜狗搜索首次在站长平台上公开推出新的SEO算法,是不是因为换了新的主人。

  最近搜狗站长平台连续两次发声,升级搜索资源平台,推出石破算法。

  我仿佛看到腾讯的资深专家拿着手术刀在搜狗上卡卡卡进行换血手术,然后进行基因重组。

  以前搜狗站长平台的公告都是各种放假通知,现在打算重组业务,真的很少见,下面是搜狗站长平台关于石破算法的公告内容:

  6月17日,搜索将推出石破算法,以促进搜索内容生态健康发展,保证用户浏览体验。

  该算法旨在识别包含不良采集行为的链接,并根据网站的作弊程度实施相应的清洗打压措施。

  不良采集标准的解释和示例如下,请合作伙伴自查并在算法上线前完成全面整改。

  1.混乱的内容结构。

  由于文章排版混乱、无关信息杂乱、功能丢失等问题,很难为用户提供有效的信息;

  2.内容逻辑混乱。

  采集不同的文章进行拼凑或同一篇文章的重复片段堆叠成一篇文章,前后没有逻辑关系,使用户难以理解;

  3.跨领域采集。

  网站采集大量与主要业务领域无关的内容以获取流量的行为也将被判定为不良采集;

  4.网站由大量采集的内容组成。

  网站缺少原创/独特的内容,即大部分内容是批量采集而不编辑的,整体内容质量较低;

  对采集站的感觉。

  如今网络上充斥着各种采集软件、工具和各种CMS插件,各大论坛站长网站都有分享采集工具的经验和策略。

  对于原创内容的创作者来说,这真的太难了。熬夜编写的原创文章手稿可能不包括在他们自己的网站上。搜索标题发现可能有大量的搜索结果,这是无言的。

  的确,搜索引擎习惯于新鲜内容,但用户不会拒绝或区分网站内容是否被采集,因为正常的采集内容不会有阅读障碍。只要SEO人员或在线编辑器稍加修改,就不会影响用户体验。

  只有那些恶意采集内容的网站才会出现内容混乱、拼接、不合逻辑、可读性差的现象。这类网站一般以数量为主,不注意网页的质量和相关性。当然,它们将无法阅读。

  恶意猜测,事实上,搜索引擎并不完全拒绝采集内容。大型网站在采集内容后的排名比原始源网站的排名效果更好,因为大型网站的蜘蛛访问频率高,内容相关性强。一旦出现新的内容,蜘蛛很快就会发现并捕获它将其包括在内,并给出相同的排名。

  由于采集站影响用户体验,各大搜索引擎之所以要推出SEO算法来攻击采集站点,这是非常重要的。

  用户通过搜索引擎搜索垃圾内容。可以想象,用户对搜索引擎的感觉不是很好。随着时间的推移,这个搜索引擎平台的利用率将越来越低。

  本文最后总结。

  互联网之所以有太多的垃圾内容,是因为搜索引擎无法完全识别内容的质量。此外,拼接内容实际上属于新内容的范畴,被抓取的概率相当高。为了遏制内容的恶意采集,只能推出SEO算法或迭代更新搜索引擎。

TAG标签:采集 恶意采集