Сайт попал под фильтр гугла

Приветствую уважаемые читатели и коллеги! Сегодня подниму наболевший вопрос — наложение на сайты санкций поисковых систем. В худшем случае они приводят к полной потере трафика. Поэтому их важно вовремя диагностировать и излечить. Знаете, как это делается?

В текущей публикации подробно опишу, как проверить сайт на фильтры от Яндекс или Google. Также предоставлю ряд рекомендаций по выходу из под них и более детально опишу пару штук. АГС, Минусинск, Панда, Пингвин — всё это при наложении на сайт не сулит ничего хорошего для продвижения.

Статья получилась довольно емкая. Поэтому для вашего удобства составил содержание.

Содержание.

  • Признаки наличия фильтров.
  • Простой способ проверки.
  • Комплексная проверка.
  • Инструменты вебмастера для диагностики санкций.
  • Проверка и выход из под АГС.
  • Фильтр Минусинск.
  • Способы выйти из под разных фильтров.

Еще не выбрали? Тогда предлагаю ознакомиться с материалом полностью. В нем нет ничего лишнего.

Сайт попал под фильтр гугла

Основные признаки нахождения сайта под фильтрами

Для начала отмечу самый печальный исход.

Полная потеря трафика с поиска и вылет почти всех страниц из индекса.

Такое не заметить сложно. Бывают и менее очевидные ситуации, которые с определенной вероятностью свидетельствуют о нахождение сайта под фильтрами систем Яндекс, Google. Внимание на список признаков нахождения сайта под существующими фильтрами.

  • Падение ТИЦ до 0.
  • Вылет страниц из индекса поисковой машины.
  • Резкое снижение посещаемости по одной, группе или всем страницам без видимых причин.
  • Залипание или понижение позиций в выдаче, несмотря на все заслуги.

Как всё это смотреть? Например, ТИЦ можно проверить по адресу https://yandex.ru/yaca/cy/ch/, добавив после последнего слеша адрес своего сайта без http. Для проверки позиций сайта лично мне нравится сервис allpositions. Количество публикаций в индексе проверяется в статистике для вебмастеров от Яндекс, Google.

Почему проявляются столь неприятные ситуации? Все просто – ошибки на сайте. Многие из них можно обнаружить при помощи комплекса проверок на labrika. Его инструменты мне сильно помогли в свое время.

Попал ли сайт под фильтр поисковой системы: простая проверка


Проверить сайт на бан в Яндекс и репутацию в Google точно стоит, если замечены один или несколько вышеописанных признаков. Как это сделать? Для этого существует удобный интерфейс xtool.

Сайт попал под фильтр гугла

Вводите адрес и жмете «проверить». Полезной информации будет много. Среди нее есть достаточно интересные моменты.

Сайт попал под фильтр гугла

Я проверил несколько ресурсов. Как видите, один из сайтов попал под фильтр Непот. Причина — некачественные исходящие ссылки. Если их примерно от 5 штук и тем более, если они покупные, да еще и не тематические, то такого расклада вполне стоит ожидать. Для снятия санкции их придется удалить и после проделанной работы дополнительно можно написать в поддержку поисковой системы.

Теперь продемонстрирую, какие результаты можно считать отличными.

Сайт попал под фильтр гугла

Вероятность санкций по нулям. Этот проект развивается нормально без всяческих помех для хорошего поискового продвижения.

Обновление от 28.02.17.

Есть хорошая новость для тех, кто заботится о качестве сайта, трафика и росте доходов. Отбросив сказки в сторону, составил качественный список рекомендаций для успешных вебмастеров.

Делаем комплексную проверку сайта на наличие фильтров от Яндекс и Google

Перечислю несколько достаточно серьезных алгоритмов, которые будем диагностировать:


  • АГС;
  • за манипуляцию ПФ (поведенческие факторы);
  • Минусинск;
  • Panda (Панда);
  • Penguin (Пингвин).

Наличие на сайте этих фильтров и некоторых других может пагубно сказаться на его развитие. Приступим к их диагностике. Для нее потребуется специальный алгоритм и доступ к системе статистики.

Один проект сильно помогает мне в работе над блогом — SEOlib. Среди множества его инструментов обращу внимание на конкретный — диагностика санкций. Еще не пользовались его возможностями? Давайте посмотрим подробнее.

Сайт попал под фильтр гугла

Для работы инструмента потребуется доступ к аналитической системе Яндекс Метрика или Google Analytics. Выберу первый вариант.

Сайт попал под фильтр гугла

Временно разрешаю доступ и перехожу к следующему этапу.

Сайт попал под фильтр гугла

Теперь я могу начать проверку сайта на фильтры Google и Яндекс. Чтобы было понятнее, сразу поясню, что отображено на графике.


  • Красная и синяя возрастающие линии — это динамика роста визитов. Я не сразу понял, но потом пришел к выводу, что строится недельный, а не суточный или месячный график.
  • Цветные вертикальные линии отмечают время, когда бан в поисковой системе мог быть наложен на проверяемый ресурс.

Цвет вертикальной линии соответствует алгоритмам, способным наложить санкции. На картинке выше масштаб мелкий, поэтому покажу блок с расцветками крупнее.

Сайт попал под фильтр гугла

Кстати, видите, что для обеих поисковых систем внизу есть ссылка с фразой «хронология алгоритмов». Она ведет на страницу с историей, которая тоже бывает крайне полезна для изучения.

Хорошо, с графическими представлениями разобрались. Кто думает, что зеленые вертикальные линии на рисунке выше свидетельствуют о том, что на проверяемый проект точно наложена санкция?

На самом деле это не так. Дело в том, что у многих фильтров есть общий признак — падение трафика. И эту особенность можно использовать.

Если бы после вертикальной черты наблюдалось резкое снижение посещаемости, то с высокой вероятностью можно говорить о наличие фильтра на сайте. Каком? Посмотрите на цвет черты.

Попутно покажу интересную возможность. Под рассматриваемым графиком есть сравнительная таблица.


Сайт попал под фильтр гугла

Можно отслеживать динамику изменения органического трафика, который идет на конкретные страницы или по запросам.

Сайт попал под фильтр гугла

Очень удобно для выявления адресов страниц или ключевых фраз, по которым идут потери. Если они найдены, как в первой строке примера, то есть смысл определить причину.

Если это банальное снижение частотности ключей, то все в порядке. Однако могут сказаться поведенческие факторы, юзабилити и дизайн, качество контента и многое другое. Желательно разобраться и устранить причины.

Пользуемся инструментами вебмастера и делаем выводы

Пройдусь коротко лишь по ключевым моментам, необходимым для раскрытия текущей темы публикации. Начнем с Яндекс Вебмастер.

  • Проверяем не упал ли резко ТИЦ или не начали ли вылетать страницы.
  • Смотрим диагностику проблем на сайте.

Сайт попал под фильтр гугла

Теперь переходим в Google Search Console.

  • Смотрим ошибки сканирования.

Сайт попал под фильтр гугла

  • Переходим в раздел «вид в поиске», «оптимизация html». Проблем обнаружено не должно быть.

Сайт попал под фильтр гугла

  • Особое внимание на раздел «поисковых трафик», «меры, принятые вручную».

Сайт попал под фильтр гугла

  • Смотрим «проблемы безопасности».
  • Проверяем удобство просмотра для мобильных устройств.

Остается сделать выводы. Есть ошибки в каких-либо пунктах? Наличие одного или нескольких недочетов не всегда гарантирует наложение фильтра, зависит от разновидности и «тяжести» ошибки. Несмотря на это, такие недочеты уж точно положительно не скажутся на раскрутке ресурса.

Фильтр АГС: как проверить сайт и выйти из под санкций?

Он является одним из самых серьезных. Встречаются упоминания о разных разновидностях АГС-17, 30, 40. Тема их различий, конечно, увлекательная, однако речь сейчас не об этом. Для начала выделю основную причину наличия фильтра АГС от Яндекс на сайте со всеми вытекающими последствиями.

Бесполезность для пользователей.


Проявляться это может в большей или меньшей степени. Суть от этого мало меняется. Посмотрим как проверить?

Можно воспользоваться одним из сервисов. Для примера проверю данный блог на одном из них.

Сайт попал под фильтр гугла

С моим проектом все нормально. Проверка на АГС показала, что санкций нет.

Что же делать с теми сайтами, проверка на которых обнаружила его присутствие? Для начала нужно выявить причины.

  • Скопированный контент или плохой рерайт (переписывание текста своими словами).
  • Большое количество страниц с минимальной смысловой нагрузкой.
  • Дубли контента, созданные намеренно, или появившиеся в следствие некорректной настройки сайта.
  • Наличие разделов или большое число материалов, которые не связаны с основной тематикой проекта.
  • Ориентирование контента, в первую очередь, на поисковых роботов и извлечение прибыли, а не на полезность для людей.
  • Обман, когда заголовок не соответствует содержанию.
  • Плохое юзабилити.

Так как алгоритм работы АГС не разглашается, то вышеописанные пункты основаны на личных наблюдениях и изучение массы общедоступной информации. Отмечу, что список данными пунктами может не ограничиваться, однако результативная мысль у всех одна.

Если сайт не представляет особой пользы для людей, пытается искусственно влиять на продвижение, то вполне может получить фильтр.

Исходя из выявленных причин и следует смотреть, как выйти из под АГС от Яндекс. Конечно, его желательно избегать изначально.

Фильтр Минусинск

SEO-ссылки — знакомое понятие? Коротко поясню. Они обычно ведут на целевой сайт и покупаются на посреднических ресурсах с использованием выбранных анкоров (текстов для ссылки). Цель проста — искусственно повлиять на ранжирование (повышение позиций) сайта в поиске.

Сайт попал под фильтр гугла

За такие действия сайт может попасть под фильтр Минусинкск от Яндекс. Последствия — снижение посещаемости и падение многочисленных позиций в органической выдаче.

Если такое случилось, сайт можно вылечить. Как это сделать? На первый взгляд, ничего сложного — нужно удалить SEO-ссылки. Сложность заключается в том, что это не всегда удается сделать, так как посреднические проекты обычно принадлежат другим людям. Бывают и другие причины в зависимости от частных случаев.

Если ссылки удается снять, то остается ждать пока роботы Яндекс проведут повторную индексацию адресов, где они были обнаружены. Процесс может занять до нескольких месяцев.

workip.ru

Алгоритм “Пингвин”


Об алгоритме:

Новый алгоритм “Пингвин”, запущенный Google 25 апреля 2012 года, направлен на борьбу со спамом в различных его проявлениях и учитывает множество внешних и внутренних факторов ранжирования сайта. Вот анонс разработчиков Google за несколько дней до релиза “Пингвина”:

“В ближайшие дни мы запускаем важное изменение алгоритмов, направленных на Webspam. Изменения снизят рейтинги сайтов, которые, как мы считаем, нарушают требования Google к качеству сайтов”.

Фильтры Google

Как не попасть под санкции “Пингвина”:

Чтобы избежать действий данного фильтра Google, вам необходимо:

  • В первую очередь следует проверить технические ошибки (“битые” внутренние ссылки, неправильные редиректы, долгое время загрузки страниц) и страницы сайта на предмет “спамных” текстов.

Фильтры и стратегии в сервисе Rookee уже актуализированы для продвижения сайтов в ПС Google в условиях алгоритма “Пингвин”. Вам доступна функция подключения white-листа (в настройках стратегии продвижения). Подключив white-лист, вы сможете застраховать свой сайт от попадания под пессимизацию алгоритма “Пингвин”.


  • Проверить качество анкоров внешних ссылок. Если большинство из них — только точные вхождения, необходимо сменить такие анкоры на более естественные, разбавить их неточными вхождениями и альтернативными текстами. Такая возможность реализована в системе Rookee с помощью редактора текстов ссылок:

Редактор текстов ссылок в Rookee

Помимо данного алгоритма, независимо друг от друга существуют и используются несколько фильтров Google, связанных с определенными характеристиками сайтов. Ниже я рассмотрю наиболее известные из них.

Фильтр Google “Песочница” (Sand Box)

Признаки наложения:

Молодой сайт, не достигший определенного возраста, не попадет в индекс от 3 месяцев до года. Подразумевается, что занимать высокие позиции по конкурентным запросам должны относительно старые качественные сайты.

Фильтры Google – Песочница

За что ваш сайт мог попасть под фильтр:

Сайт только недавно создан.

О фильтре:

Так как новые сайты, скорее всего, не смогут ранжироваться лучше старых авторитетных сайтов по конкурентным запросам, они помещаются в так называемую “песочницу”. Цель ПС — понять, насколько сайт будет полезен пользователям в основной выдаче по конкурентным запросам: будет ли ресурс развиваться, наполняться контентом и т.п., и сможет ли в дальнейшем составить конкуренцию старым авторитетным сайтам.

Как вывести сайт из-под фильтра:

Чтобы как можно скорее выйти из-под фильтра, рекомендуется постоянно развивать сайт — обновлять контент, добавлять новые материалы, создавать внутреннюю перелинковку. Ссылочную массу следует наращивать планомерно, без резких скачков. Необходимо также, чтобы качество площадок, с которых устанавливаются ссылки, удовлетворяло требованиям последних изменений алгоритмов Google. 

Фильтр Google "Дополнительные результаты" (Supplementary Results)

Признаки наложения:

Страница не показывается в результатах поиска по запросу. Она будет показываться, только если будет недостаточно страниц, на которые не наложен фильтр. Обычно такое происходит только для низкочастотных запросов.

Фильтры Google — Дополнительные результаты

За что ваш сайт мог попасть под фильтр:

Ваш сайт мог попасть под этот фильтр, если на нем есть страницы, которые дублируют друг друга.

О фильтре:

Часто многие страницы сайтов, хоть и дают ответ на запрос, но или он неполный, или страница, на которой есть ответ, считается некачественной. Причинами, по которым страница считается некачественной, могут быть: некачественная или “спамная” внутренняя перелинковка, использование дублированного контента с других сайтов и т.д. Такие страницы не показываются в основных результатах поиска, а помещаются в “Дополнительные результаты”.

Как не попасть под фильтр:

Чтобы страницы сайта всегда показывались в основной выдаче, необходимо соблюдать все рекомендации поисковой системы, размещать уникальный и полезный для пользователей контент, ставить ссылки с авторитетных источников.

Как вывести сайт из-под фильтра:

Чтобы страница показывалась по всем запросам в основных результатах поиска, следует поставить на нее несколько ссылок с качественных площадок, уникализировать контент или добавить больше информации. Также следует обратить внимание на технические ошибки на сайте и все исправить.

Другие фильтры Google

Кроме вышеперечисленных, часто встречающихся, в кругах оптимизаторов можно услышать и о других фильтрах Google:

  • “Возраст домена” (Domain name Age). Этот фильтр Google накладывается на сайт, доменное имя которого зарегистрировано менее полугода назад. Так как такие сайты имеют меньший уровень доверия, чем старые, они медленнее индексируются. Чтобы сайт начал хорошо индексироваться, необходимо постоянно развивать его, тогда ПС увидит, что сайт создается для людей, и будет лучше его индексировать.
  • “Бомбежка” (Bombing). Этот фильтр Google накладывается за большое количество ссылок с одинаковыми анкорами. Действие таких ссылок не учитывается в ранжировании сайта, и, как следствие, не виден рост позиций. Чтобы ссылки начали приносить результат, необходимо разбавить ссылочную массу уникальными текстами.
  • “Битые ссылки” (Broken Links). Накладывается на сайт, имеющий большое количество внутренних ссылок, ведущих на несуществующие страницы (отдающие 404 ошибку). Такой сайт теряет позиции в выдаче. Чтобы выйти из-под фильтра, необходимо исправить все подобные ссылки на сайте таким образом, чтобы они вели на существующие страницы.
  • “Много ссылок сразу” (Too Many Links at once). Если за короткое время на сайт установлено слишком много ссылок, они перестают влиять на ранжирование сайта. Чтобы не попасть под этот фильтр Google, рекомендуется планомерная закупка ссылок в ограниченном количестве. Особенно это актуально для молодых сайтов.
  • “Линкопомойка” (Links). Проверяются страницы сайта, имеющие большое количество исходящих нетематичных ссылок. Кроме этого, могут ухудшиться позиции самого сайта-донора и начать выпадать из индекса страницы. Рекомендуется удалить страницы, количество внешних ссылок на которых больше 5.
  • “Фильтр по времени загрузки” (Page Load Time). Страницы, которые загружаются очень долго, исключаются из результатов выдачи. Чтобы выйти из-под данного фильтра Google, необходимо проверить технические параметры страниц (это можно сделать с помощью сервиса Rooletka) и исправить возможные ошибки.
  • “Минус тридцать” (- 30). Этот фильтр понижает позиции сайта по большинству запросов примерно на 30 пунктов. Накладывается за использование “черных” методов продвижения — дорвеи, редиректы через JavaScript, клоакинг (предоставление пользователю и ПС разной информации) и т.п. Чтобы вернуть позиции, необходимо устранить причины наложения фильтра.
  • “Дублирующийся контент” (Dublicate Content). Позиции сайта с неуникальным контентом искусственно понижаются в результатах поиска. Чтобы избежать пессимизации, необходимо следить за уникальностью контента и переписывать его в случае ухудшения позиций.
  • “Чрезмерная оптимизация” (Over Optimization). Если текст на страницах сайта перенасыщен ключевыми словами, такие страницы значительно теряют позиции или полностью исключаются из выдачи. Чтобы не попасть под фильтр, рекомендуется придерживаться плотности каждого ключа в тексте (это отношение ключевого слова или ключевых фраз к общему количеству слов на странице) не более 5-7%.

prozhector.ru

Послабление фильтров с Яндекса и Гугла

Как я уже упоминал, работоспособность сейчас имеет место быть просто феноменальная и было бы здорово ее приложить еще к чему-то полезному и перспективному, ибо статей для переделки осталось уже не много, да и спама в них уже не найти, разве что только мелочи разные подправляю.

Ребят, сразу извиняюсь, что далее буду использовать нетолерантное «трафик», а не количество посетителей с такой-то поисковой системы, ибо так реально проще и доступнее получается (меньше слов, а больше смысла). Ничего личного, только бизнес. Спасибо.

25 сентября я обнаружил, что получаю с Яндекса трафика в два-три раза больше, чем обычно в последнее время.

Сайт попал под фильтр гугла

На общей картине посещаемости это отразилось примерно так:

Сайт попал под фильтр гугла

Во-первых, это было несколько неожиданно, ибо как раз к этому времени я полностью смирился со сложившейся плачевной ситуацией и просто продолжал пахать без особых претензий на результат. Причем, еще летом я порой готов был рвать и метать из-за бессилия чего-то изменить в лучшую сторону, а тут полностью перестал дергаться.

Во-вторых, не имея опыта выхода из под фильтров, не знаю что и думать о будущих перспективах. Трафик по Яндексу вернулся не весь и я себя успокаиваю тем, что и падал он не сразу, а в течении нескольких апов.

Сайт попал под фильтр гугла

Мне кажется, что апдейты Яндекса не являют всеобъемлющими, т.е. не захватывают всего объема корпуса запросов, а окучивают их планомерно от апа к апу. Ну, время покажет. Я сейчас вообще ни в чем не уверен и если все бахнется обратно, то, наверное, даже не удивлюсь.

С другой стороны, если судить по отзывам на популярный форумах сео тематики, то у многих трафик возвращался сразу и в полном объеме. Тут возможны нюансы, ибо могли при этом быть всего десяток трафикогенерирующих запросов и им ничего не стоило апнуться всем сразу. Опять же, это мои домыслы.

Кстати, я так еще и не спросил у Платона Щукина — «а был ли мальчик?» Ну, в смысле, а состоялся ли выход из под фильтра. Ибо может быть всякое.

Что приятно, на рост трафика с Яндекса откликнулся и Гугл, хотя и с небольшой задержкой. Когда я угодил под фильтр зеркала рунета, то Google тоже откликнулся, но с чуть большим лагом:

Сайт попал под фильтр гугла

Вот и гадай теперь, то ли апдейты гугловских панды или пингвина совпали так с Яндексом, то ли рост трафика с одной поисковой системы привел к изменению отношения другой. Опять же никаких соображений на этот счет у меня нет. А у вас?

Вот, кстати, наглядная демонстрацию того, что происходило с трафиком с Гугла за последние два с половиной года:

Сайт попал под фильтр гугла

Панда и Пингвин — ссылки в Google стали влиять негативно

Давайте я вкратце поясню, что это за звери такие (панда и пингвин), если кто-то не знает, и зачем это Disavow надо. Ну, и заодно станет понятно, почему до весны 2012 оптимизаторы ругались и бранили исключительно Яндекс, а Гугл считали этаким дурачком, которому какую ссылку не сунь, он все ее в плюс для сайта обращает.

Сейчас же на форумах бранят исключительно Google и их политику «жадности», а про Яндекс все большее хорошее говорят, ну, или просто молчат. Тут все дело заключается в резкой смене политики, которая по рунету ударила особенно сильно, ибо в буржунете гайки были затянуты посильнее и ссылочное там наращивали еще тогда аккуратно и в меру.

А у нас рулила и, как не странно, продолжает рулить Сапа. Ее столько раз хоронили, что и не сосчитать, а она живее всех живых. В основном, конечно же, это обусловлено главенствующим положением Яндекса в рунете. Коммерческие запросы пользователи вводят по большей части там, а Google в основном окучивает информационные.

Продвигаться ссылками с Сапы под Гугл будет становиться со временем все сложнее и сложнее, ибо эта поисковая система реально наказывает за плохие (спамные, покупные) ссылки (тот самый пресловутый Пингвин). Яндекс же их просто не учитывает (если обнаружит, конечно же).

Произошло то, что по словам SEO оптимизатора не могло произойти никогда — обратные ссылки в ряде случаев стали злом. Раньше они имели только два возможных эффекта влияния на продвижение: либо положительное, либо никакое. Примерно так дело сейчас и обстоит в нашем отечественном поисковике.

Google же пошел дальше, добавив еще один эффект влияния на продвижение: отрицательный. Оптимизаторы говорили, что этого не могло случиться потому, что после этого начнется хаос и конкуренты начнут топить друг друга, покупая тоннами спамные дешевые ссылки на сайты друг друга.

Гугл это не испугало. Определенно есть доля истины в высказываниях тех, кто говорит, что рожденный хаос и чехарда в выдачах преследует только одну цель — заставить потенциальных клиентов отказаться от ничего не гарантирующего Сео и вливать деньги исключительно в Адвордс.

Но формально к Google придраться очень сложно, ибо хитрые ребята из этой мега корпорации предоставили всем желающим возможность убрать негативное влияние спамных ссылок с помощью инструмента Disavow links. Вас топят конкуренты? Проставили 10 000 ссылок с ГС? Не беда.

Найдите все эти плохие бэклинки, сформируйте из них текстовый файлик и сообщите о нем Google через форму Disavow links. Не пройдет и двух недель (двух месяцев или года) и все попытки вас утопить будут нивелированы. Не беда, что полгода или год вы не будет получать трафика (иметь продаж), в конце концов справедливость восторжествует.

А какие ссылки считать спамными? Какие критерии брать в рассмотрение? Как быть владельцу мелкого магазинчика, у которого нет Сео специалиста? Наверное, многие из тех, кто задается этим вопросом, через некоторое время понесут свои денежки в Адвордс, ибо там есть гарантия получения трафика. Что и требовалось доказать.

Нам же с вам в Адвордс нельзя, ибо большинство информационных проектов как раз и зарабатывает там, а точнее в его оборотной стороне под название Адсенс. Нам нужно решать эту задачку с Disavow links. Или хотя бы четко для себя определить, что этого не требуется. А как это сделать?

Как мне кажется, при возникновении проблем с гугл-трафиком, нужно попробовать как-то понять, под какой именно фильтр влетел ваш сайт, ибо это определит дальнейшую стратегию выхода из-под него.

Я довольно много читал и про Панду и про Пингвина, но думаю, что провести между ними реальную грань и дать их четкое определение могут только разработчики. Где-то они пересекаются, но в основном можно, наверное, считать, что:

  1. Пингвин наказывает за спамные ссылки, т.е. за внешние факторы чрезмерной поисковой оптимизации
  2. Панда наказывает за спамные тексты, внутреннюю линковку и накрутку поведенческих. Т.е. огрубляя — за то, что вы делаете сами на своем проекте.
  3. Оба этих фильтра накладываются и снимаются только автоматически — пингвин в свои апдейты, а Панда в свои (правда, последнее время она уже не имеет ярко выраженных апов для всех сайтов). Писать в техподдержку Google бесполезно и подавать на пересмотр тоже.

    Но есть еще и меры применяемые к сайту вручную (например, по стуку конкурентов) и от них тоже зачастую можно избавиться с помощью Disavow links. После этого нужно будет подать сайт на пересмотр в панели инструментов Гугла («Поисковый трафик» — «Меры принятые вручную»)

Панда появилась чуть раньше, но по большому счету точкой отсчета для них обоих можно назвать 2012 год. Оба этих фильтра имели в свое время четкие даты обновлений, что позволило оптимизаторам косвенно судить о том, за что получил пенальти тот или иной сайт (ориентируясь на дату, когда начал падать трафик).

Чтобы не попасть под эти фильтры оптимизаторы пересмотрели уже довольно давно политику продвижения сайтов. Анкоры ссылок с прямыми вхождениями стараются использовать ограничено, все больше становятся популярными разбавленные вхождения или же вообще безанкорные ссылки.

Так же в безанкорных используются и слова «тут», «здесь», «сюда». Иногда даже размещают неактивные бэклинки, т.е. те, по которым нельзя кликнуть и совершить. Даже с прописанным внутри атрибутом rel=»nofollow» покупают, ибо в естественном ссылочном профиле такие ссылки обязательно присутствует.

Многие ссылочные биржи сейчас перестраиваются под такие потребности. Например, Сапа, или все та же биржа статей WebArtex, недавно обновила свой ссылочный ассортимент, о чем я упоминал в этой публикации.

Кстати, загнать по фильтр можно не только тонной ссылок с ГС (у меня в начале этой весны наблюдался чудовищный всплеск ссылочного в несколько тысяч бэков и не к одному из них я причастен не был). Могут пытаться играть и на поведенческом, т.е. ухудшать метрики как поведения пользователей в выдаче, так и на сайте.

Например, все той же весной у меня появился тысячный трафик с каких-то сайтов анекдотов, приколов и прочей ерунды, которые ничем иным, как ГС, и назвать-то было трудно. Что это было — не понятно. Например, при переходе к чтению очередного анекдота пользователь попадал на мою страницу 404 и не знал, что ему делать. Пришлось даже свою страничку 404 переделать под таких посетителей, чтобы хоть чуток снизить показатель их отказов.

Пингвин до сих пор придерживается принципа общего обновления алгоритма фильтрации и можно четко отследить (если этим заморочиться) все его апдейты. Сейчас, кстати, похоже идет его очередное обновление до версии 2.1, что подтверждают соответствующие ветки на Сео форумах.

Как определить под каким фильтром Google находится сайт — под Пандой или под Пингвином

Кстати, именно такой способ предлагает использовать буржуйский онлайн ресурс Barracuda, а именно его продукт под названием Panguin Tool.

Сайт попал под фильтр гугла

Проблема в том, что этому сервису нужно будет предоставить доступ к статистике вашего счетчика Гугл Аналитикс, а он уже наложит на выдранный из него график точные даты апдейтов Панды и Пингвина, чтобы понять что именно из этого дуэта подкосило ваш ресурс.

По началу я подумал, что у меня есть по крайней мере две причины этого не делать:

  1. Во-первых, у меня Аналитикс еще и года не стоит, ибо раньше меня полностью устраивала статистика собираемая Метрикой от Яндекса, ну, и ЛИ счетчик тоже вполне себе информативный.
  2. Во-вторых, на том же аккаунте в Google у меня висит и Адсенс, а это же деньги, которые никому не стоит доверять. Но чуть погодя я вспомнил, что Аналитикс, равно как и Метрика, имеет возможность создания гостевых аккаунтов, чем я и попробовал воспользоваться.

В общем, я зашел в своем основном аккаунте Аналитикса в администрирование и делегировал права на просмотр и анализ статистики другому своему аку в Гугле, к которому вообще ничего такого не привязано.

Сайт попал под фильтр гугла

После этого в том браузере, где я уже был авторизован под этим не слишком важным аккаунтом, перешел по ссылке «Log-in to Analytics» со страницы Panguin Tool и меня попросили подтвердить мое желание предоставить этому приложению данные по статистике из Аналитикса.

Сайт попал под фильтр гугла

Я не возражал. После этого меня попросили выбрать конкретный счетчик.

Сайт попал под фильтр гугла

Ну, и в конце концов предоставили желаемый график с датами релизов Панды и Пингвина, но, как упоминал чуть выше, счетчик этот у меня стоит не так давно и начало 2012 года он не захватил.

Сайт попал под фильтр гугла

Поэтому определить, какой именно фильтр наложил Гугл на мой сайт, таким образом не удалось. К тому же, в конце весны и начале лета этого года я вообще снимал код Аналитикса по не понятным мне сейчас причинам. То снижение трафика с Google, которое имело место быть весной этого же года, вроде бы ни с Пандой, ни с Пингвином не коррелируются.

Но, возможно, вам повезет больше. На графике и в приведенных ниже таблицах еще можно посмотреть статистику по приземляющим страницам и по ключевым словам, с которых шел трафик.

Второй способ определиться с тем, какой именно зверь вас покусал, это посмотреть на косвенные признаки (отпечатки зубов). Например, считается, что при попадании под Пингвин у вас просядут позиции только по отдельным запросам, целевые страницы которых окажутся заспамленны плохими входящими ссылками.

При Панде же, скорее всего, будет общее проседание трафика, как будто бы у вас уменьшился траст сайта, хотя о самой уместности употребления этого термина ведутся споры. У меня ситуация в этом плане больше похожа на второй вариант.

Disavow links — как сообщить Гуглу о плохих ссылках на сайт

Если это была Панда, то остается только ждать и надеяться, а если это был все же страшный Пингвин, то имеет смысл заморачиваться и озаботиться подготовкой списка для Disavow links. Начало этой процедуры практически при любом сценарии ее дальнейшего развития будет заключаться в том, чтобы выгрузить из Гугл Вебмастера все обратные ссылки на ваш сайт, которые данная поисковая система знает и которыми готова с вами поделиться.

Делается это на вкладке «Поисковый трафик» — «Ссылки на ваш сайт». Над приведенным списком у вас будет три кнопки, которые позволят выгрузить все найденные в Google бэки. Мне больше всего нравится последний вариант, ибо там будет иметь место сортировка по дате появления беклинков.

Сайт попал под фильтр гугла

Однако, тут будет приведена информация только по 1000 доменам, с которых проставлено на ваш сайт больше всего беклинков. Судя по различным сервисам анализа беков, на мой блог проставлены ссылки с трех тысяч доменов и их общее число больше доступных в Гугле тридцати тысяч.

Но не суть. Давайте представим, что я пробежался по этим Урлам и с высокой долей вероятности выявил те странички или даже целые домены, которым не место в моем ссылочном профиле. Теперь остается только оформить все это богатство в один файл с расширение txt и любым удобным вам названием.

При составлении файла для Disavow links необходимо будет придерживаться простых правил:

  1. Урл каждой новой страницы или домен пишутся на отдельной строке: http://plohoysite.ru/plohaystranichka.html
  2. Домен оформляется по следующему принципу: domain:plohoysite.com
  3. Можно добавлять комментарии, но перед ними обязательно должна стоять решетка (# — хеш)

Сайт попал под фильтр гугла

Как только список подготовите, то переходите на страницу Disavow links (прямого пути из интерфейса Google вебмастера я не нашел, видимо боятся, что будут использовать этот инструмент не обдумано):

Сайт попал под фильтр гугла

Выбираете из списка нужный вам сайт и жмете на кнопку «Отклонение ссылок». Вас предупредят о возможных отрицательных последствиях сего действа, хотя я, вроде бы еще не встречал подобных отзывов на форумах, но возможно что те, кто добавлял сюда свои списки, уже не имели трафика с Гугла, а уйти в минус, как известно, не возможно.

Сайт попал под фильтр гугла

Кстати, лично меня эта надпись настораживает, ибо не хотелось бы необдуманными действия усугубить, а не улучшить сложившуюся ситуацию. Ну, а если вы все же решитесь на эксперимент, то на следующей странице вам предложат загрузить с компьютера подготовленный файл с Disavow links и отправить его Гуглу на рассмотрение.

Сайт попал под фильтр гугла

Но проставить в столбик отобранные URL адреса или домены — это самое простое. А вот самое сложно как раз и состоит в отсеивании этих самых спамных и плохих обратных ссылок, чтобы потом попросить Google их не учитывать.

Положение усугубляется еще и тем, что нет однозначного мнения о пользе этого действа, даже если вы точно знаете, что ваш сайт пострадал от Пингвина или на него были наложены ручные санкции. Мнения специалистов разделились. Например, Девака ради дела даже добавил в Disavow links все до единого беки на свой блог, но результата не увидел, хотя именно он склоняется к полезности этого инструмента, как ни странно.

Кстати, при наложении ручных санкций ситуация с выходом из-под фильтра может быть даже более простой, а точнее более быстрой. Фильтры наложенные вручную сейчас можно увидеть в Гугл Вебмастере на вкладке «Поисковый трафик» — «Меры принятые вручную».

ktonanovenkogo.ru

Sandbox (песочница)

Фильтр накладывает ограничения на новые или «молодые» сайты (от 2 недель до года). Таким образом, Гугл следит, как будет развиваться ресурс. Определить, что ваш сайт находится под фильтром легко — он полностью отсутствует в индексе.

Причины попадания:

Способы вывода:

Способ выхода из-под фильтра Sandbox достаточно прост — нужно регулярно наполнять сайт полезным и уникальным контентом, проводить внутреннюю оптимизацию страниц (делать внутреннюю перелинковку), а также осторожно закупать ссылки на бирже. Ни в коем случае нельзя допускать резкого ссылочного взрыва, а доноров нужно подбирать очень качественно. О том, как закупать вечные ссылки на бирже Gogetlinks, вы можете почитать в этой статье.

 

Domain name age (возраст домена)

Этот фильтр сильно созвучен с предыдущим. На все новые домены накладываются ограничения, но после достижения сайтом определенного уровня траста, ограничения снимаются.

Причины попадания:

Способы вывода:

Избежать данный фильтр поисковой системы Google поможет покупка старого домена с историей, только нужно смотреть, чтобы история была положительной, и на домен не было наложено штрафных санкций. Также еще один способ — это покупка трастовых ссылок, но опять осторожно и аккуратно. Ну и, конечно, не забрасывайте ваш сайт, продолжайте его развивать, потому что после вывода из-под санкций пойдет активный рост трафика.

 

Too many links at once (много ссылок сразу)

Результатом попадания под фильтр является сильное падение трафика с Google, а также обнуляются все внешние ссылки на сайт, то есть они не имеют уже никакого веса.

Причины попадания:

Способы вывода:

Предупреждением таких санкций является плавная и постепенная закупка ссылок, чтобы в глазах поисковика этот процесс выглядел естественным. Если же сайт попал под фильтр, то рекомендуется значительно снизить наращивание ссылочного, но имеющиеся ссылки не трогать. Ориентировочно, через 1−3 месяца фильтр снимается.

 

Bombing (бомбежка)

Этот фильтр интересен тем, что санкции накладываются не на весь сайт, а на те страницы, которые Google воспринял, как спамные. Эти страницы перестают расти в позициях или вылетают из индекса.

Причины попадания:

Способы вывода:

А он всего один — нужно удалить ВСЕ такие ссылки или поставить на них разные анкоры, причем не пропустить ни одну ссылку, иначе Google не снимет санкции. Ну, а дальше остается только ждать по разным источникам от 2 месяцев до 1,5 года.

 

Broken Links (битые ссылки)

Причины попадания:

Способы вывода:

Чтобы устранить данную проблему, нужно найти все битые ссылки на сайте (это можно сделать, используя программу Xenu или аналог) и заменить их на правильные, либо удалить совсем.

 

Links

Давным-давно, когда интернет был совсем молодой, многие владельцы сайтов пользовались способом обмена ссылками, чтобы увеличить трастовость своих ресурсов. Но со временем, когда поисковые системы улучшались этот способ перестал учитываться, и сейчас Google фильтрует такие сайты.

Причины попадания:

Способы вывода:

Для предупреждения фильтра рекомендуется ставить не более 3−4 внешних ссылок на сторонние ресурсы, а если сайт попал под санкции, то срочно убирать такие ссылки.

 

CO-citation linking filter (социтирование)

Google внимательно отслеживает тематики площадок, ссылающихся на ваш ресурс, и учитывает это в поиске. Например, если на ваш сайт по тематике выращивания помидоров ссылается сайт инвестиционно-консалтинговых услуг, Гугл может определить вашу тематику, как финансовую, и понизить в выдаче по вашим основным запросам.

Причины попадания:

Способы вывода:

Внимательно следите за тем, на каких ресурсах вы размещаете ссылки, чтобы тематики обязательно совпадали или были смежные. Если же сайт попал под санкции, то необходимо снять все ссылки с нетематических или некачественных сайтов. А если таких сайтов много и вручную это сделать не получится, то порядок действий следующий:

  • составить список всех ссылающихся сайтов (через сервис ahrefs.com);
  • отсортировать все нетематические сайты;
  • добавить их в сервис Disavow Link (мы написали о нем отдельную статью).

Таким образом, Google перестанет учитывать эти ссылки при индексации вашего сайта. Дальше остается только ждать, когда будет снят фильтр.

 

Page load time (время загрузки страницы)

Причины попадания:

Способы вывода:

Рекомендуется, чтобы скорость загрузки страниц не превышала 7 секунд (проверяется с помощью сервиса Page Speed). Данный сервис даст вам четкие рекомендации, что нужно сделать, чтобы увеличить скорость загрузки сайта.

 

Omitted results (опущенные результаты)

Результатом попадания под этот фильтр является отсутствие сайта в основном поиске Google. И только на самой последней странице выдачи будет ссылка «Показать скрытые результаты», нажав на которую в поиске появится и ваш сайт.

Причины попадания:

Способы вывода:

Если сайт попал под фильтр, то необходимо переписать контент, чтобы все тексты были уникальными. А также нужно сделать хорошую внутреннюю перелинковку.

 

— 30

Гугл тщательно борется с методами черного SEO, и данный фильтр создан специально для этой цели. В результате штрафных санкций сайт понижается на 30 позиций.

Причины попадания:

Способы вывода:

К счастью, выйти из-под данного фильтра не сложно — нужно всего лишь устранить вышеприведенные причины.

 

Over optimization (переоптимизация)

В результате действия данного фильтра сайт пессимизируется в выдаче или полностью исключается из индекса, в зависимости от степени нарушения.

Причины попадания:

Способы вывода:

Если сайт попал под санкции, вам нужно правильно оптимизировать все страницы сайта. Для этой цели лучше всего посмотреть топ конкурентов по выдаче и сделать оптимизацию похожим образом.

 

Panda

Фильтр Панда от Google является одним из самых тяжелых для любого сайта, так как он охватывает несколько вышеперечисленных фильтров, и выход из-под панды — это долгий и болезненный процесс.

Причины попадания:

Способы вывода:

Соответственно, для выхода из-под санкций от Панды нужно поработать комплексно над всеми этими факторами — сделать качественный и уникальный контент, грамотную оптимизацию страниц, убрать рекламу с сайта. Постепенно, по мере правильного развития сайта, санкции будут сняты, но этот процесс долгий и может занять по времени более года.

 

Penguin (пингвин)

Фильтр Пингвин от Гугл так же, как и Панда является очень проблемным. Похожим образом Пингвин состоит из нескольких вышеперечисленных фильтров, которые имеют отношение к ссылочному продвижению.

Причины попадания:

Способы вывода:

Выход из-под Пингвина также является долгим и болезненным процессом. Подробнее, как проверить сайт на фильтры Гугла и снять санкции пингвина я напишу в отдельной статье.

icon by Eugen Belyakoff

semantica.in

Техническая сторона

1. Для начала проверьте нет ли проблем с хостингом.
2. Затем проверьте присутствует ли в исходном коде этот мета-тег.
/>

Как показал опыт общения с веб-мастерами на Справочном форуме Google, наличие в коде этого мета-тега — типичная ошибка для сайтов на WordPress. Почему именно на WordPress, сложно сказать, но таковы результаты наблюдений. Вероятно, веб-мастера иногда забывают снять указатель в настройках темы, запрещающий сканирование сайта поисковыми системами. Второй вариант — этот мета-тег появился в результате взлома сайта.
3. Проверьте, правильно ли настроен основной домен сайта.
4. Проверьте ваш robots.txt, не закрыли ли вы там чего лишнего.

«Matt Cutts» позвонит?

Если ничего из вышеуказанного не является причиной проблем с сайтом, тогда нужно копать в сторону Google.
Сайт попал под фильтр гугла
Есть только три канала связи по которым можно точно узнать у Google, попал ваш сайт в немилость (под санкции) или нет. Первый и самый простой — проверить обе (все) версии сайта в Google Search Console на предмет наличия мер, принятых вручную (раздел “Поисковый трафик”). Второй — обратиться на Справочный форум для веб-мастеров Google. За каждым справочным форумом закреплён сотрудник Google. В русскоязычном форуме для веб-мастеров это Андрей Липатцев и Екатерина Черткова. При обращении на форум не нужно в названии темы писать что-то наподобие — «Андрей Липатцев, помоги». Дело в том, что сотрудник Google отвечает на форуме при наличии у него для этого времени или если Ведущие участники не могут предложить однозначное решение (уведомляют об этом сотрудника Google). Третий канал — написать в Сообщество Google для веб-мастеров. Там тоже часто отвечает на вопросы пользователей сотрудник Google Андрей Липатцев.

Если в Search Console вы обнаружили сообщение о мерах, внимательно его прочитайте и следуйте описанным инструкциям.

Практика показывает, что в 75 процентах случаев меры применяются за ссылочный и анкорный спам, 10 процентов за неинформативное и бесполезное содержание (обычно как дополнение к абузам за нарушение авторских прав), 10 процентов — за маскировку и скрытую переадресацию — например за вап-клик, и 5 процентов за прочие нарушения Рекомендаций для веб-мастеров.

Если сообщение о мерах в Search Console отсутствует, но трафик и позиции сайта резко падают или, не дай Господь, сайт вовсе исключили из индекса, значит, тут самая вероятная причина — воздействие одного из алгоритмов Google.

Основные алгоритмы Google

Основных алгоритмов, о которых известно вебмастерам и которые влияют на ранжирование, четыре:

Page Layout Algorithm — наказывает сайты за чрезмерное количество рекламы.
Категорически не следует перегружать верхнюю часть веб-страницы рекламными объявлениями. Шквал рекламы не должен обрушиваться на пользователей, приходящих на ваш сайт.[1]

Pirate Algorithm — пессимизирует сайты за нарушение авторских прав (DMCA). У Google есть и специальная форма, через которую правообладатель может подать жалобу. На практике встречались случаи, когда из-за жалобы правообладателя на незаконное использование изображений была удалена из индекса главная страница сайта. Вся информация о таких нарушениях («абузах») в итоге собирается в Lumen (ранее в Chilling Effects).

Google Penguin — Пингвин наверно один из самых известных в среде веб-мастеров алгоритм. Он призван бороться со всеми случаями и видами спама в интернет.

Google Panda — алгоритм, получивший своё название от фамилии одного из инженеров Google — Panda Navneet. Google Panda является алгоритмом изменения результатов ранжирования поиска Google, который впервые был выпущен в феврале 2011 года. Изменения направлены на понижение ранга некачественных сайтов или бесполезного контента, и возврат в верхнюю часть результатов поиска высококачественных сайтов.[2]

Дополнительно рекомендуем изучить:
Амит Сингхал. Дополнительные рекомендации по созданию сайтов с качественным содержанием.

На самом деле таких алгоритмов значительно больше, чем четыре. О многих из них, например о Payday Loan Algorithm, вебмастерам мало что известно или практически ничего не известно.

habr.com

Быстрый переход

searchengines.guru


You May Also Like

About the Author: admind

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

Этот сайт использует Akismet для борьбы со спамом. Узнайте как обрабатываются ваши данные комментариев.

Adblock
detector