Владельцы сайтов часто самостоятельно проводят политику по оптимизации сайта для вывода в ТОП главной страницы результатов поиска (SERP). При этом они смутно представляют, как на самом деле работают алгоритмы поисковых роботов Яндекса, Google и других систем. После долгих месяцев и больших расходов оказывается, что сайт не только не ранжировался выше, но и наоборот — упал на 20-40 пунктов в низ.
После этого вебмастера разочаровываются в эффективности SEO-продвижения и полностью сосредотачивают бюджет на рекламе и развитии в социальных сетях. Но в реальности владелец ресурса неправильно использовал инструменты оптимизации, из-за чего наткнулся на поисковый фильтр. Благодаря этому инструменту поисковики отделяют хорошие сайты от плохих, выстраивая проработанные и объективные критерии.
- По статистике самостоятельный уход из-под фильтров может занять 5-6 месяцев кропотливой работы. С помощью услуг SEO-студии снятие санкций поисковиков займет менее1 месяца.
- Компания DVsites поможет начинающим вебмастерам избавиться от штрафа и выведет их страницу в ТОП выдачи.
Фильтр поисковиков — алгоритм анализа сайтов на просторах интернета, который сравнивает их с определенными критериями или «эталоном». Чем ближе сайт к эталонному виду, тем выше он поднимается в рейтинге. Но если страница совсем не подходит под критерии, ее позиции в SERP сильно занижаются.
Как правило критерии снижения сайта в выдаче — это серьезные нарушения, которые нарушают естественную конкуренцию между страницами. Такие нарушения являются либо результатом незнания «правил» поисковиков, либо намеренным обманом системы с целью более выгодного ранжирования.
- снижение позиции в выдаче;
- выборочное удаление страниц;
- полное удаление сайта из SERP.
Чаще всего используется именно понижение в общем рейтинге. Таким образом создается более конкурентоспособная выдача, которая при этом улучшает поведенческие факторы пользователя и способствует ответу на запрос, который он вводил в поиске.
Яндекс и Google ориентируются на адаптированность сайтов, их информативность и полезность для посетителей. Поэтому фильтры применяются к тем страницам, которые не соблюдают этих критериев. Самыми частыми причинами являются следующие проблемы веб-ресурса:
- плохое юзабилити;
- плохая структура страницы;
- переспам ключевыми фразами;
- неуникальный, дублированный контент;
- новый домен (особенно для сети Google);
- некачественные SEO-ссылки или их большое количество.
Также существуют и более обширные критерии. Например, фильтр контента для взрослых и отсутствие адаптации для мобильных браузеров. Особое внимание поисковые роботы уделяют контенту на сайте. Текстовая информация должна быть осмысленной, написанной для пользователя и содержать LSI-фразы.
О поисковых фильтрах известно не так много. Дело в том, что компании Яндекс и Google предоставляют только поверхностную информацию о действующих санкциях. Это сделано специально, чтобы мотивировать пользователей и вебмастеров создавать авторский, уникальный контент, заниматься естественным продвижением.
SEO-специалисты и сервисы по поисковому продвижению опытным путем установили некоторые фильтры и границы их действия. Каждый эксперт имеет собственные наработки в данной области, поэтому способов обхода фильтров очень много. Многие системы санкций имеют собственные неофициальные названия, так как о них не было известно из официальных пресс-релизов. Особенно много подобных фильтров в системе Яндекса.
Поисковые фильтры наиболее крупных поисковых систем условно разделяются на следующие тематические группы:
- Ссылочная масса. Самая частая причина появления фильтра. Раньше продвижение ссылками было очень популярно, так как они повышали авторитетность, но позже поисковики начали наказывать за неправомерную накрутку внешних упоминаний. К этому фильтру относится слишком большое количество SEO-ссылок, а также их слишком резкий рост. Яркий пример — алгоритм Минусинск от Яндекса.
- Общее качество страницы и ИЦ. Этот фильтр анализирует контент на странице, а также SEO-ссылки. Под санкции попадают сайты с неуникальными, неинтересными и неинформативными текстами. Сюда же относится юзабилити, дизайн, навигация и структура сайта. Такие алгоритмы полностью проверяют сайт на соответствие основным требованиям. К ним можно отнести АГС Яндекса и Панду от Гугла.
- Неправомерное использование ПФ. Поведенческий фактор — это все действия пользователя на сайте. Чем их больше, тем выше рейтинг странице. Некоторые владельцы ресурсов накручивают ПФ, из-за чего попадают под действие поискового штрафа. Обмануть алгоритм не удастся — система отслеживает даже скрытые методы.
- Текстовое содержимое и разметка. Другая популярная причина изменения рейтинга. Сюда можно отнести общее качество текста, чрезмерное использование ключевых слов из семантического ядра, санкции за бредотекст и неуникальный контент. Также такие алгоритмы проверяют разметку и структуру сайта. Самым знаменитым фильтром в рунете является робот «Баден-Баден» от Яндекса, который наказывает за переспам.
- Юзабилити и адаптированность. Юзабилити и адаптированность. Все чаще люди пользуются поиском через мобильный браузер. Доля мобильных устройств, использующих интернет каждый год, вырастает на 10-15%. Поэтому поисковики наказывают владельцев сайтов за отсутствие адаптации. Помимо прочего, страницы должны быстро открываться и не мешать пользователю — быть удобными.
- Аффилированность группы. Контент на многих страницах полностью повторяет друг друга. То же самое относится к семантическому ядру и сниппетам в SERP. Специальные алгоритмы удаляют все похожие сайты из выдачи, оставляя только один. Иначе по запросу мы бы получали множество одинаковых страниц.
- Спамная тематика. Сюда можно отнести кликбейт, желтые заголовки, шок-контент и другие тематики ресурсов, которые искусственно накручивают поведенческие факторы. Отдельную ценность представляют веб-ресурсы, которые используют популярные категории товаров или услуг, зарабатывая на этом.
- Плохая реклама. Под плохой рекламой подразумеваются желтые объявления, шок-контент, неприятные изображения. Важным является количество рекламных баннеров. Если их общая площадь превышает 50% от площади страницы, то в действие вступает фильтр.
- Подзаконная тематика и взрослый контент. Страницы подобной группы просто удаляются из выдачи. При этом взрослый контент нельзя найти по несвязанным запросам, но можно по тематическим. А перед удалением страниц с нарушением закона поисковики предупредят об этом владельца ресурса.
Отдельную проблему представляет диагностирование фильтров и определение работы санкции конкретной группы. В большинстве случаев стандартные методы сбора статистике не позволяют определить, из-за чего произошло изменение рейтинга. Некоторый фильтры на ссылки вовсе никак не проявляют себя, потому что просто не учитывают тИЦ с других сайтов.
Чтобы понять, в чем заключается проблема, необходимо обратиться к профессионалам. Для этого существует компания DVsites, которая помогает пользователям точно определить причину штрафа и быстро избавиться от фильтра.
Наш сервис имеет огромный опыт определения фильтров и вывода из-под них сайтов разных тематик. Мы имеем собственные уникальные методы диагностики, которые позволяют избавиться даже от самого сложного штрафа за несколько месяцев.
Перед процессом вывода мы тщательно соберем информацию о сайте и проанализируем данные из SERP. SEO-Специалист заранее предупредит вас о сроках вывода из-под фильтра, а в конце даст рекомендацию по защите от поисковых санкций.
Наше преимущество — использование всех возможных ресурсов для решения проблемы. Мы помогает снимать фильтры за ссылки, даже если они введены из-за внешних анкорах на неактивных страницах. За плечами DVsites большой опыт устранения таких алгоритмов, как Панда, Минусинск, АГС, Пингвин, EDC от Google, Киров и многих других. Вы не только вернете позиции рейтинга ранжирования, но и сможете получить дополнительный поисковый трафик за счет оптимизации.
Заказать модернизацию