Чтобы правильно продвигать свои сайты, оптимизатор должен знать принципы ранжирования и фильтры поисковых систем, которые могут быть наложены на некачественные страницы.
Давайте рассмотрим основные фильтры Гугл — Пингвин и Панда, а также Яндекса — АГС, переоптимизация и др.
Google Пингвин
Впервые имя этого фильтра (Гугл Пингвин) прозвучало в апреле 2012 года, а в начале мая пришел и первый апдейт, и, как итог: позиции большинства сайтов упали. Алгоритм выполняет те же задачи, что и другие алгоритмы и фильтры. Задача же проста — очистка поисковой системы от некачественных ресурсов.
Получить наказание от Google Penguin можно за следующее:
- Чрезмерная насыщенность ключами для внутренних и внешних ссылок;
- Использование копированного материала (касается даже тех, у кого украли);
- Спам в каталогах и блоках некачественными статьями;
- Использование доменов, которые точно совпадают с продвигаемыми ключами;
- Переоптимизация страниц на сайте (большое количество ключей при создании текста и мега-тегов).
В общем, новый алгоритм теперь глубже сканировать и намного лучше разбираться в качестве ресурса. Необходимо учесть и еще один момент — это реклама на ресурсе. Перенасыщенность рекламой главной страницы, ведет к потере позиции в выдаче, Пингвин в этом преуспел.
Google Панда
Для тех, кто еще не слышал о таком фильтре, сделаем небольшой экскурс в историю. Он появился весной 2011 года и моментально по Сети понесся шум.
Фильтр Гугл Панда преобразил результаты поиска: многие сайты получили повышение, а довольно много — упало. Буквально за несколько апдейтов выдача была сильно изменена. Что происходит, многим было не понятно, но вскоре на блоге SEOmoz были освещены некоторые аспекты.
Вероятные причины попадания под Панду:
- Копипаст;
- Маленькое количество контента на странице;
- Бесполезный материал;
- Переоптимизированный контент;
- Слишком большое количество рекламы на странице.
Фильтр непредсказуем, Google Панда постоянно обучается и как он поведет себя в будущем предсказать сложно. Единственное можно добавить по переоптимизированному контенту. Плотность ключевых слов не должна составлять больше 5 — 6%.
Если на сайте присутствуют страницы с плотностью более 10%, то они могут тянуть на дно весь ресурс. Главное создавайте сайт не для поисковых ботов, а для людей и проблем с Пандой не возникнет.
Другие фильтры Google
Google Domain name Age Filter — молодой домен, на котором располагается ресурс заслуживает маленького доверия у поисковиков, поэтому сайт низко располагается в поисковой выдаче.
Google Sandbox — это фильтр для новых ресурсов. К новым сайтам доверие отсутствует, что касается конкурентных запросов, то такие ресурсы находятся далеко в поисковой выдаче.
Over Optimization Filter — большая насыщенность сайта заголовками (тег Н), повторений ключевых фраз и жирного текста (теги b, strong).
Google’s Omitted Results Filter — пропущенные результаты. Дублирующийся материал, мало входящих ссылок, маленькая внутренняя перелинковка страниц.
Page Load Time Filter — долгое время загрузки, большой объем страницы, насыщенность рекламой и скриптами, страница не индексируется и как итог — понижение в поисковой выдаче.
Google Bombing — данный фильтр накладывается, если на ресурс ведет большое количество ссылок с одним и тем же описанием.
Too many pages at once Filter — накладывается на сайты на которых число новых страниц увеличивается не по дням, а по часам. Полезного материала сразу много не бывает.
Google -30 — применяется к ресурсам, на которых используются редиректы и дорвеи при помощи javascript. Ресурс опускается на 30-позиций в поисковой выдаче.
Фильтры Яндекс: АГС
Тяжелое орудие Яндекса — фильтр АГС направлен на борьбу с сателлитами, поскольку в последнее время они буквально заполонили Сеть и не приносят пользы посетителям. Выстрел по сайту, это еще не бан, но довольно серьезный удар по ресурсу.
Вылетают почти все страницы, в большинстве случаев остается одна морда сайта. Первопричиной попадания под выстрел считается отвратительный контент: плохой рерайт, синонимайз, машинный перевод и т.д. Сателлит то пропадает из выдачи практически весь и надолго, то вновь возвращается на кроткое время. Стоит АГС привязаться к ресурсу один раз, он от него не отвяжется.
Переоптимизация — работа данного фильтра направлена против злостных оптимизаторов. Начинает он работать, если находит частое использование ключевых фраз. В настоящее время для оптимального продвижения достаточно в статье упоминать ключевую фразу пару раз.
Аффилированные — для попадания в бан, достаточно пары сайтов расположенных на одном хосте и их продвижении по одинаковым ключевым запросам.
Непот фильтр — применяется к сайтам, использующим большое количество ссылочного спама, да еще неестественного: перестают учитываться внешние ссылки, и их продажа бессмысленна.
Потеря позиций — фильтр говорит сам за себя. Сайты наказываются за чрезмерное размещение ссылок на другие ресурсы.
Ты последний — применяется к сайтам, дублирующим сторонний контент. наказание ужасное — опускание сайта на «тысячные» позиции в выдаче.
Пессимизация — сайт попадает под этот фильтр, если обменивается ссылками с ресурсами, содержащими другую тематику.
Редирект фильтр — применяется к тем ресурсам, на которых используется редирект javascript.
Links Text — наиболее гуманный, просто сайты не индексируются если не содержат ключевых фраз.
Совсем недавно у Яндекса появился фильтр напоминающий «Песочницу» от Google. Только что созданные сайты некоторое время просто не допускаются на верхние места выдачи, пока не войдут в доверие к поисковой системе. Им придется немного подождать перед тем, как выйти в свет.
Как не попасть под фильтры поисковых систем
Чтобы избежать фильтров поисковых систем придерживайтесь следующих правил:
- Пишите и публикуйте только качественный контент;
- Старайтесь заливать на сайт новый материал чаще (оптимальным считается — 4 новых статьи в неделю);
- Наращивайте только качественную ссылочную массу. Получайте бэклинки с тематических и трастовых ресурсов;
- Необходимо позаботиться о работоспособности и правильной настройке служебных файлов (robots.txt, sitemap.xml и др.);
- Вовремя исправляйте на сайте «битые» ссылки.
Если будете писать качественные тексты для людей, заботиться о посетителях и юзабилити сайта, не спешить с наращиванием ссылочной массы, то о фильтрах, представленных в этой статье, можете забыть навсегда.
www.raskruty.ru
Google Панда – Инспектор по качеству
Алгоритм Панда, главной целью которого является повышение качества результатов поиска, был запущен 23 февраля 2011 года. С его появлением тысячи сайтов потеряли свои позиции, что взбудоражило весь Интернет. Поначалу оптимизаторы думали, что Панда штрафует сайты, замеченные в участии в ссылочных схемах. Но, как позже стало известно, борьба с неестественными ссылками не входит в круг полномочий этого алгоритма. Все, чем он занимается, – это оценка качества сайта.
Чтобы узнать, не угрожает ли вам опасность попасть под фильтр Панды, ответьте на такие вопросы:
- Стали бы вы доверять информации, размещенной на вашем сайте?
- Есть ли на сайте страницы с дублированным или очень схожим контентом?
- Вы бы доверили данные вашей кредитной карточки подобному сайту?
- Содержатся ли в статьях орфографические или стилистические ошибки, опечатки?
- Статьи для сайта пишутся с учетом интересов читателей или же только с целью попасть в результаты поиска по определенным запросам?
- Есть ли на сайте оригинальный контент (исследования, отчеты, аналитика)?
- Выделяется ли ваш сайт среди конкурентов, которые выдаются вместе с ним на странице результатов поиска?
- Пользуется ли ваш сайт авторитетом в своей сфере?
- Уделяете ли вы должное внимание редактированию статей?
- Предоставляют ли статьи на сайте полные и информативные ответы на вопросы пользователей?
- Вы бы стали добавлять сайт/страницу в закладки или рекомендовать его друзьям?
- Могли бы вы встретить подобную статью в печатном журнале, книге или энциклопедии?
- Не отвлекает ли внимание читателей реклама на сайте?
- Уделяете ли вы внимание деталям при создании страниц?
Какие именно факторы учитывает Панда при ранжировании сайтов, наверняка не знает никто. Поэтому лучше всего сфокусироваться на создании максимально интересного и полезного сайта. В особенности вам нужно уделить внимание таким моментам:
- «Недостаточный» контент. В данном контексте термин «недостаточный» подразумевает, что контент на вашем сайте не представляет новизны или ценности для читателя, так как не раскрывает тему должным образом. И дело вовсе не в количестве символов, так как иногда даже пара предложений может нести немалую смысловую нагрузку. Конечно, если большинство страниц вашего сайта будут содержать обрывки текста из нескольких предложений, Google сочтет его некачественным.
- Дублированный контент. Панда посчитает ваш сайт некачественным в том случае, если большая часть его контента скопирована из других источников или если на сайте есть страницы с дублированным или схожим контентом. Это распространенная проблема Интернет-магазинов, которые продают сотни товаров, различных лишь по одному параметру (например, по цвету). Чтобы избежать этой проблемы, используйте тег canonical.
- Некачественный контент. Google любит сайты, которые постоянно обновляются, поэтому многие оптимизаторы рекомендуют ежедневно публиковать новые материалы. Однако если вы будете публиковать некачественный контент, не представляющий ценности для пользователей, то такая тактика принесет больше вреда.
Как выйти из-под фильтра Панда?
Google ежемесячно обновляет алгоритм Панда. После каждого обновления поисковые роботы пересматривают все сайты и проверяют их на соответствие установленным критериям. Если вы попали под фильтр Панда, после чего внесли изменения на сайте (изменили недостаточный, некачественный и неуникальный контент), позиции вашего сайта улучшатся после очередного обновления. Учтите, что, скорее всего, вам придется ждать восстановления позиций несколько месяцев.
Google пингвин – Охотник за ссылками
Алгоритм Google Пингвин был запущен 24 апреля 2012 года. В отличие от Панды, этот алгоритм нацелен на борьбу с неестественными обратными ссылками.
Авторитет и значимость сайта в глазах поисковых систем во многом зависит от того, какие сайты на него ссылаются. При этом одна ссылка с авторитетного источника может иметь такой же вес, как десятки ссылок с малоизвестных сайтов. Поэтому раньше оптимизаторы стремились всеми возможными путями получить максимальное количество внешних ссылок.
Google научился распознавать разные манипуляции с ссылками. Как именно работает Пингвин, известно только его разработчикам. Все, что известно оптимизаторам, так это то, что этот алгоритм охотится за некачественными ссылками, созданными веб-мастерами вручную с целью повлиять на позиции сайта. Сюда относятся:
- покупные ссылки;
- обмен ссылками;
- ссылки с нерелевантных сайтов;
- ссылки с сайтов-сателлитов;
- участие в ссылочных схемах;
- другие манипуляции.
Как выйти из-под фильтра Пингвин?
Пингвин – такой же фильтр, как и Панда. Это означает, что он регулярно обновляется и пересматривает сайты. Чтобы выйти из-под фильтра Пингвин, вам нужно избавиться от всех неестественных ссылок и ждать обновления.
Если вы добросовестно последуете рекомендациям Google и не будете пытаться получить ссылки нечестным путем, то сможете вернуть себе расположение поисковых систем. Однако чтобы вернуть первые позиции, вам не достаточно будет просто удалить некачественные ссылки. Вместо них вам нужно заработать естественные редакторские ссылки с трастовых сайтов.
Google Колибри – самый «понимающий» алгоритм
Алгоритм Колибри – это совсем другой «зверь». Google объявил о запуске этого обновления 26 сентября 2013 года, но он также упомянул о том, что этот алгоритм действует уже на протяжении месяца. Вот почему владельцы сайтов, позиции которых упали в начале октября 2013 года, ошибочно полагают, что они попали под фильтр Колибри. Если бы это действительно было так, они ощутили бы действие этого алгоритма на месяц раньше. Вы спросите, а что же в таком случае послужило причиной снижения трафика? Скорее всего, это было очередное обновление Пингвина, которое вступило в силу 4 октября того же года.
Алгоритм Колибри был разработан для того, чтобы лучше понимать запросы пользователей. Теперь, когда пользователь вводит запрос «В каких местах можно вкусно поесть в Екатеринбурге», поисковая система понимает, что под словом «места» пользователь подразумевает рестораны и кафе.
Как поднять себя в глазах Google Колибри?
Поскольку Google стремится как можно лучше понимать пользователей, вы должны делать то же самое. Создавайте контент, который будет давать максимально развернутые и полезные ответы на запросы пользователей, вместо того, чтобы зацикливаться на продвижении по ключевым словам.
В заключение
Как видите, все поисковые алгоритмы преследуют одну цель – заставить веб-мастеров создавать качественный, интересный и полезный контент. Помните: Google постоянно работает над повышением качества результатов поиска. Создавайте контент, который поможет пользователям найти решение их проблем, и первые места в выдаче вам гарантированы.
blog.contentmonster.ru
Sandbox (песочница)
Фильтр накладывает ограничения на новые или «молодые» сайты (от 2 недель до года). Таким образом, Гугл следит, как будет развиваться ресурс. Определить, что ваш сайт находится под фильтром легко — он полностью отсутствует в индексе.
Причины попадания:
Способы вывода:
Способ выхода из-под фильтра Sandbox достаточно прост — нужно регулярно наполнять сайт полезным и уникальным контентом, проводить внутреннюю оптимизацию страниц (делать внутреннюю перелинковку), а также осторожно закупать ссылки на бирже. Ни в коем случае нельзя допускать резкого ссылочного взрыва, а доноров нужно подбирать очень качественно. О том, как закупать вечные ссылки на бирже Gogetlinks, вы можете почитать в этой статье.
Domain name age (возраст домена)
Этот фильтр сильно созвучен с предыдущим. На все новые домены накладываются ограничения, но после достижения сайтом определенного уровня траста, ограничения снимаются.
Причины попадания:
Способы вывода:
Избежать данный фильтр поисковой системы Google поможет покупка старого домена с историей, только нужно смотреть, чтобы история была положительной, и на домен не было наложено штрафных санкций. Также еще один способ — это покупка трастовых ссылок, но опять осторожно и аккуратно. Ну и, конечно, не забрасывайте ваш сайт, продолжайте его развивать, потому что после вывода из-под санкций пойдет активный рост трафика.
Too many links at once (много ссылок сразу)
Результатом попадания под фильтр является сильное падение трафика с Google, а также обнуляются все внешние ссылки на сайт, то есть они не имеют уже никакого веса.
Причины попадания:
Способы вывода:
Предупреждением таких санкций является плавная и постепенная закупка ссылок, чтобы в глазах поисковика этот процесс выглядел естественным. Если же сайт попал под фильтр, то рекомендуется значительно снизить наращивание ссылочного, но имеющиеся ссылки не трогать. Ориентировочно, через 1−3 месяца фильтр снимается.
Bombing (бомбежка)
Этот фильтр интересен тем, что санкции накладываются не на весь сайт, а на те страницы, которые Google воспринял, как спамные. Эти страницы перестают расти в позициях или вылетают из индекса.
Причины попадания:
Способы вывода:
А он всего один — нужно удалить ВСЕ такие ссылки или поставить на них разные анкоры, причем не пропустить ни одну ссылку, иначе Google не снимет санкции. Ну, а дальше остается только ждать по разным источникам от 2 месяцев до 1,5 года.
Broken Links (битые ссылки)
Причины попадания:
Способы вывода:
Чтобы устранить данную проблему, нужно найти все битые ссылки на сайте (это можно сделать, используя программу Xenu или аналог) и заменить их на правильные, либо удалить совсем.
Links
Давным-давно, когда интернет был совсем молодой, многие владельцы сайтов пользовались способом обмена ссылками, чтобы увеличить трастовость своих ресурсов. Но со временем, когда поисковые системы улучшались этот способ перестал учитываться, и сейчас Google фильтрует такие сайты.
Причины попадания:
Способы вывода:
Для предупреждения фильтра рекомендуется ставить не более 3−4 внешних ссылок на сторонние ресурсы, а если сайт попал под санкции, то срочно убирать такие ссылки.
CO-citation linking filter (социтирование)
Google внимательно отслеживает тематики площадок, ссылающихся на ваш ресурс, и учитывает это в поиске. Например, если на ваш сайт по тематике выращивания помидоров ссылается сайт инвестиционно-консалтинговых услуг, Гугл может определить вашу тематику, как финансовую, и понизить в выдаче по вашим основным запросам.
Причины попадания:
Способы вывода:
Внимательно следите за тем, на каких ресурсах вы размещаете ссылки, чтобы тематики обязательно совпадали или были смежные. Если же сайт попал под санкции, то необходимо снять все ссылки с нетематических или некачественных сайтов. А если таких сайтов много и вручную это сделать не получится, то порядок действий следующий:
- составить список всех ссылающихся сайтов (через сервис ahrefs.com);
- отсортировать все нетематические сайты;
- добавить их в сервис Disavow Link (мы написали о нем отдельную статью).
Таким образом, Google перестанет учитывать эти ссылки при индексации вашего сайта. Дальше остается только ждать, когда будет снят фильтр.
Page load time (время загрузки страницы)
Причины попадания:
Способы вывода:
Рекомендуется, чтобы скорость загрузки страниц не превышала 7 секунд (проверяется с помощью сервиса Page Speed). Данный сервис даст вам четкие рекомендации, что нужно сделать, чтобы увеличить скорость загрузки сайта.
Omitted results (опущенные результаты)
Результатом попадания под этот фильтр является отсутствие сайта в основном поиске Google. И только на самой последней странице выдачи будет ссылка «Показать скрытые результаты», нажав на которую в поиске появится и ваш сайт.
Причины попадания:
Способы вывода:
Если сайт попал под фильтр, то необходимо переписать контент, чтобы все тексты были уникальными. А также нужно сделать хорошую внутреннюю перелинковку.
— 30
Гугл тщательно борется с методами черного SEO, и данный фильтр создан специально для этой цели. В результате штрафных санкций сайт понижается на 30 позиций.
Причины попадания:
Способы вывода:
К счастью, выйти из-под данного фильтра не сложно — нужно всего лишь устранить вышеприведенные причины.
Over optimization (переоптимизация)
В результате действия данного фильтра сайт пессимизируется в выдаче или полностью исключается из индекса, в зависимости от степени нарушения.
Причины попадания:
Способы вывода:
Если сайт попал под санкции, вам нужно правильно оптимизировать все страницы сайта. Для этой цели лучше всего посмотреть топ конкурентов по выдаче и сделать оптимизацию похожим образом.
Panda
Фильтр Панда от Google является одним из самых тяжелых для любого сайта, так как он охватывает несколько вышеперечисленных фильтров, и выход из-под панды — это долгий и болезненный процесс.
Причины попадания:
Способы вывода:
Соответственно, для выхода из-под санкций от Панды нужно поработать комплексно над всеми этими факторами — сделать качественный и уникальный контент, грамотную оптимизацию страниц, убрать рекламу с сайта. Постепенно, по мере правильного развития сайта, санкции будут сняты, но этот процесс долгий и может занять по времени более года.
Penguin (пингвин)
Фильтр Пингвин от Гугл так же, как и Панда является очень проблемным. Похожим образом Пингвин состоит из нескольких вышеперечисленных фильтров, которые имеют отношение к ссылочному продвижению.
Причины попадания:
Способы вывода:
Выход из-под Пингвина также является долгим и болезненным процессом. Подробнее, как проверить сайт на фильтры Гугла и снять санкции пингвина я напишу в отдельной статье.
icon by Eugen Belyakoff
semantica.in
Фильтры Google Пингвин и Панда — за что они наказывают
Начнем вообще с понимания того, за что google в основном наказывает блоги и накладывает на них так называемые фильтры панда и пингвин. Разберем сначала панду, так как она наказала меня первой.
Алгоритм google панда наказывает за контент. То есть за ваши косяки в контентной составляющей блога. А косяков у нас море поверьте. Я выделил тут несколько пунктов:
1. Сам контент. Если у вас на блоге в основном не уникальный контент (рерайт или еще хуже копипаст, скопировали тупо и вставили себе), то фильтр вам обеспечен. Контент на блоге должен быть уникальный. Ни какого скопировал, вставил себе — запомните это.
2. Переоптимизация контента. Если у вас все статьи нашпигованы ключевыми словами, слишком много выделений ключевых слов, подчеркиваний, курсивов, слишком много ключевых слов в h1, h2, h3 и т.д., переспам в title, описании (description), keywords и т.д., то за это тоже можно получить по шапке. Не то что можно, вы именно и получите по шапке.
Если вы что-то и выделяете, то сделайте это так, чтобы было удобно пользователю в первую очередь, а не чтобы как-то схитрить и заоптимизировать. Знаете прикольную шутку про сеошника? Слушайте:
SEOшник приходит в бар, ресторан, купить алкогольные напитки, клубы, лучшие бары в Москве, заказать банкет…
Вот у вас такого быть не должно! )))
3. Дублированный контент. Моя любимая тема последних 2-х статей. В выдачу google должен занести только главную страницу, страницы и записи (статьи). Все. Других страниц с одинаковым контентом быть в выдаче не должно. Как показывает практика более 90% блоггеров страдают болезнью дублей. Решение здесь и здесь.
4. Слишком много рекламы. Если у вас ну очень много рекламы на блоге, то это так же видит google панда и понижает ваш блог в выдаче по ключевым запросам. Особенно панда не любит рекламу в начале статей. Опять же у 90% блоггеров в самом начале статей стоит реклама google или яндекс. ))
Это очень плохо. Я лично проводил эксперимент на своем блоге. Хотел узнать как реклама влияет на позиции. Сначала я убрал рекламу в начале статей. Трафик чуть чуть вырос. Далее я собрал все те статьи на которые всех чаще заходят посетители с поисковых систем, ПОЛНОСТЬЮ убрал в этих статьях рекламу и…
Через 1-1,5 недели трафик на них вырос почти в 2 раза. Вот вам и прикол. Короче подумайте над этим. не делайте из своего блога светофор рекламы, вставляйте ее так, чтобы она была незаметна для посетителя.
5. Показатель отказов. Что это? По-русски, это когда посетитель пришел на ваш блог на какую-то статью и через 2-3 секунды, ну 5 или 10 закрыл вкладку. И чем вот так вот больше тем хуже. 100 человек пришли на статью, 80 человек сразу ушли — это говорит о том, что 80% людей считают ее не информативной.
То есть люди не нашли в ней то что искали. Следовательно стоит понизить ее в выдаче. Какие выводы можно сделать вам? Возможно заголовок статьи не тот, мало контента, человека отпугнул дизайн, может у вас какая-то музыка на фоне начинает играть (это вообще пипец, я бы такие сайты сразу под фильтр)
6. Продажные ссылки. Здесь много говорить не стоит. Продаете ссылки с блога, ждите в гости панду.
Если взять все эти 6 пунктов вместе, то вы наверное уже поняли, какая статья будет любимицей google панды. А это классная интересная, уникальная статья заголовок которой будет цепляющим и информативным. Чтобы посетитель прочитал заголовок и понял, — «Все, вот это то что мне надо, я нашел что искал».
Статья в которой нет копипаста, статья которая не напичкана ключевиками, не переоптимизирована, в которой нет продажных ссылок и кучи рекламы… Статья у которой нет братьев близнецов и которую читают от корки до корки не 5-10 секунд, а 1-2-3-5 минут да еще и хотят другие статьи почитать. =)
Вот к чему надо стремиться товарищи. Это вот по google панде. Эта зверюшка пришла ко мне в 2012 году в феврале, посмотрела на тысячи дублей, которые появились вдруг от куда не возьмись и наложила санкции на весь блог.
А до этого момента трафик дошел до 6200 посетителей в сутки и продолжал расти как на дрожжах. Ну я и накосипорил. ))
Сейчас дубли потихоньку уходят и я вижу прирост трафика с google:
«>
Всегда было с гугла 150-170 человек в сутки, а тут уже 280-330. Процесс пошел. Чувствую когда дубли уйдут, то трафик с google даже обгонит Яндекс =)
Идем дальше. Теперь поговорим про алгоритм Google Penguin (пингвин). За что наказывает он? А наказывает он вас за ссылки. Именно за ссылки при чем входящие.
Что такое хороший блог? Это блог, который постоянно развивается и дает людям качественный, уникальный и полезный контент верно? Верно. А как гугл определит качественный он или нет? Интересный или нет?
Очень просто. По поведенческим факторам — раз. По входящей ссылочной массе — два. Первое понятно, про поведенческие факторы говорить много не буду, почитайте и у меня статьи на блоге есть про них и в интернете.
Разберем входящую ссылочную массу. Если блог развивается и выдает постоянно полезные и интересный контент, то по любому на этот блог должны ссылаться другие сайты и блоги в сети. Так? То есть должен быть постоянный прирост ссылочной массы. Ссылки должны идти и идти…
С сайтов и блогов, с социальных сетей, закладок, форумов и т.д. и т.п. По любому… НО! Ссылки естественные и качественные — раз, идти постоянно — два. Что такое естественные и не естественные ссылки вы можете почитать в интернете. Про качество расскажу дальше.
Вкратце про естественные и не естественные. Естественные — те которые ставят другие люди без ваших просьб и т.д. Понравился им пост ваш, они и поставили ссыль. Не естественные — покупные или поставленные специально вами где-то лишь бы была ссылка ведущая на ваш блог, которая поможет увеличить ваши позиции в ПС. Как то так.
Но не забываем, что ссылки можно покупать так, что их и не отличишь от не естественной. )) У не естественных ссылок еще как правило анкоры (текст ссылки) включает в себя ключевое слово.
Если же google пингвин видит, что на вас идут ссылки с других сайтов и блогов, но основная масса из них — не естественные, то он вас накажет. Если же google пингвин видит, что на вас идут ссылки естественные, супер, но если они шли шли, а потом бац и перестали идти, то он вас тоже накажет. За что?
А за то, что ваш блог перестал развиваться. Все просто. Это некий сигнал гуглу, который дает ему понять, что или же ваш блог реально затух, то есть посетители любили ваш контент и делились ссылками на него в других источниках, а потом перестали или же вы занимались покупкой ссылок, потом перестали это делать.
То есть было например входящих ссылок на вас 200, а стало 100. Значит где-то вы смухлевали, наверняка купили временных ссылок либо просто там где стояли ссылки на вас, те сайты и блоги умерли.
Google все это понимает, он смотрит на динамику роста ссылочной массы. Если видит обвал, то на вас возможно наложат санкции. Не возможно, а наложат.
Вывод: блог надо развивать постоянно. Постоянно писать полезный и интересный контент, тем самым наращивая ПОСТОЯННО входящую ссылочную массу.
Окей. За что наказывает Google пингвин мы понимаем, а как же узнать наложены на ваш блог какие-то санкции пингвина? Чтобы это определить нужно сначала вообще знать какие виды фильтров существуют у Пингвина.
Какие бывают фильтры Google Пингвин (виды)
У пингвина бывают 2 вида фильтров:
1. Ручной фильтр
2. Автоматически фильтр
Как узнать под каким фильтром находится ваш блог и находится ли вообще? Давайте начнем с ручного фильтра. Я расскажу вам как попал под него мой блог и как я из него вышел довольно таки быстро хотя сидел под ним аж почти 2 года.
При чем реально вопрос решался быстро, но мое не желание разобраться в этом вопросе затянуло выход из под ручного фильтра аж на 2 года. Короче отнесся я к нему не серьезно и образно говоря только делал вид, что хочу из под него выйти.
Итак! В общем 4 мая 2012 года приходит мне в панель управления google webmasters (раздел — поисковый трафик — меры принятые вручную) вот такое письмо:
«>
То есть гугль говорит мне о том, что нашел не естественные ссылки, ведущие на мой блог и накладывает на меня ручной фильтр. Почему ручной? А потому что я письмо получил. При наложении автоматического фильтра письмо не приходит.
Ну короче посмотрел я на это письмо, кивнул головой, улыбнулся и пошел по своим делам. Так как трафик просел из-за дублей (о которых я не знал тогда) еще с февраля, то мне уже честное слово было по барабану, фильтры не фильтры, панды, пингвины и т.д.
Я забил на все. Просто тупо писал иногда посты, занимался переездами в новую хату, потом в отпуск поехал и т.д. Короче был жесткий спад моей активности. Прошел АЖ ЦЕЛЫЙ ГОД! )))) И только тогда мне что-то подумалось — а не пора ли разобраться в вопросе снятия фильтра? )))
И вот только 3 марта 2013 года я отправляю первый запрос на повторную проверку в google и прошу пересмотреть мой блог на наличие не естественных входящих ссылок и снять фильтр:
«>
Говорю мол какой я белый и пушистый, больше так не буду, вот мол блогу дизайн сменил, картинки все уникал, все статьи пишу сам, ля ля ля… Там в этом же разделе есть такая кнопка:
«>
Отправил. Через аж 3 дня получаю ответ:
«>
То есть они проверили мой блог и как бы он все еще нарушает рекомендации по обеспечению качества. Ссылки все еще на меня идут неестественные. Окей. Я отправляю еще раз запрос и там уже возмущаюсь еще больше, мол да как так, я не нарушал, не виноватая я, он сам пришел и все в этом роде.
Снова получаю ответ, нет ты сама пришла… Виноватая… ))) То есть ни фига фильтр не снимают. Ок! Отправляю запрос еще раз и уже ругаюсь… Мол да что такое, покажите ссылки, их на меня идет аж 1500, я не маг и не могу понять какие хорошие, а какие плохие.
Получаю вот такой ответ:
«>
То есть снова говорят, что сайт нарушает рекомендации, но они еще и даже 3 ссылки показали какие для примера. Я посмотрел все эти ссылки и увидел, что это пипец. Как можно считать их не естественными, если их люди сами ставили на своих блогах??? Ну ок, согласен на счет одной, я проводил конкурс, но остальные то 2 за что?
Я пишу письмо гугл снова, мол товарищи вы что там с ума сошли со своими алгоритмами? Вы считаете за неестественные ссылки как раз таки естественные ссылки. Их люди сами ставили. Получаю снова ответ — ваш сайт все еще нарушает рекомендации и снова показывают еще примеры ссылок.
Я снова смотрю на них и вижу, что все они естественные. Я их не покупал, люди их сами ставили. И вот так я 9 раз отправлял запросы на проверку. Все бесполезно. Я уже хотел писать им маты в поддержку, но понял, что это точно к хорошему не приведет, поэтому пошел на форум google.
Решил там по задавать вопросы. Объясняю ситуацию, говорю google присылает письма, что мой блог нарушает рекомендации, как так, ведь все ссылки естественные. Получил там кучу бесполезных ответов в итоге ушел от туда.
Мой вывод был однозначный: Google не заслуженно наложил на меня фильтр.
На самом деле ребята, я считаю, что гоголь наложил на меня фильтр как раз таки не за не естественные ссылки, а за спад в общем количестве входящих ссылок. Я расслабился после панды, перестал получать качественные входящие ссылки и поэтому пингвин огрел меня своим плавником =)
Как я вышел из под ручного фильтра гоголя пингвин
Но не буду же я сидеть, плакать в платочек и оставлять все как есть? В начале 2014 года я решил взять себя в руки и избавиться от этой напасти, от этого фильтра google. Я стал копать различную информацию по снятию фильтра, читать кучу статей и кейсов, смотрел видео, посещал вебинары по seo, смотрел курсы и т.д.
В итоге получил четкое понимание того, что мне надо сделать, чтобы вывести блог из под фильтра. А мне надо было сделать следующее:
1. Собрать полный список всех входящих на мой блог ссылок
2. Вычислить из списка плохие ссылки и отклонить их в Disavow Tool
3. Удалить все те ссылки с других сайтов (которые мне показал google)
4. Начать получать качественные естественные ссылки
Весь январь и февраль я именно этим и занимался. 22 февраля отправляю запрос на повторную проверку и 2 марта УРА!!! Получаю письмо от Google где он говорит, что фильтр снят:
«>
Прочитав это письмо я вскочил со стула, начал бегать по комнате в трусах с криками «Google я люблю тебя!!!», потом опять же в одних трусах побежал в магазин, купил пузырь коньяка и напился как скотик =))) Шучу конечно же… Но радости моей не было предела.
Так вот! Что я собственно сделал? Первым делом я попросил всех тех вебмастеров убрать те ссылки на которые мне указал google. Почти все убрали без проблем, за что им большое спасибо! Но ведь есть и те ссылки, которые я не могу убрать верно? Что делать с ними?
После этого я собрал все входящие ссылки, которые ведут на мой блог. Делается это очень просто. Заходите в инструменты для вебмастеров google — Поисковый трафик — Ссылки на ваш сайт:
«>
Жмем — дополнительно. Далее — загрузить эту таблицу — документы Google — OK! И копируем весь столбец.
«>
Все это дело вставляем в простой txt документик:
«>
Ок. У нас с вами есть полный список всех входящих доменов на наш блог. Теперь нам надо вычислить все плохие ссылки из этого списка и сказать google, чтобы он не учитывал их вообще при ранжировании.
У google есть такой специальны инструмент, который называется Disavow Tool. Туда мы можем загрузить список ссылок, которые не стоит учитывать google и через какое-то время через несколько апдейтов все эти ссылки учитываться не будут.
Как это делается я расскажу ниже, но вот вопрос — как вычислить из списка, какие ссылки хорошие, а какие плохие? Тут есть 2 варианта:
1. Вы сами ходите по каждой ссылке, смотрите на качество ресурса и принимаете решение — отклонять или нет.
2. Вы используете мега крутой сервис Checktrust и он все сделает за вас за 10 минут, а то и меньше (РЕКОМЕНДУЮ).
Ну первый вариант конечно же рабочий, но мало эффективный. Почему? А потому что вы можете смотреть на ресурс, видеть, что вроде бы он нормальный, но на самом деле по качеству плохой. Качество — это в первую очередь ТРАСТ и СПАМ. Об этом дальше.
То есть вы не отклоняете ссылку, думая что она хорошая, а она на самом то деле плохая. Так же первый вариант плох тем, что займет у вас кучу времени. Вот у меня 1500 входящих ссылок. Представьте если я буду по каждой ходить? Это жесть =)
Второй вариант крут тем, что сервис Checktrust сам пройдет по всем тем ссылкам, которые вы ему покажете, выберет из них все плохие не трастовые и заспамленные и даст вам уже ГОТОВЫЙ ФАЙЛ, который только нужно будет загрузить в инструмент Disavow Tool и все.
Однозначно рекомендую вам использовать этот вариант, так как это 100% решение. Я 9 раз отправлял заявки на пересмотр в google и только на 10 раз, когда использовал этот сервис (получил готовый файл и отправил его в Disavow Tool) фильтр с меня сняли.
Для того, чтобы воспользоваться сервисом checktrust вам надо всего лишь:
1. Зарегистрироваться
2. Добавить список всех ссылок на проверку в инструмент BackLinks Checker
3. Получить готовый файл с плохими ссылками
4. Отправить его в Disavow Tool.
Начнем. С регистрацией у вас проблем не будет. Далее создаем в кабинете новый проект BackLinks Checker:
«>
Даем ему название, например «Мои плохие ссылки» и внизу вставляем все те ссылки, которые мы собрали из инструментов для вебмастеров google:
«>
Жмем далее и выбираем «Легкая чистка» начните с этого:
«>
Жмем «Далее» и — «Подтвердить и разместить проект». Все. Сервис через минут 5-10, а то и раньше все ссылки обработает и выдаст вам готовый файл, который надо будет загрузить в Disavow Tool, чтобы отклонить плохие ссылки.
Как только Checktrust все закончил, заходим «Домой», нажимаем на название нашего проекта и нам автоматически скачается txt файлик со всеми плохими ссылками:
«>
Вот с этим файлом мы идем сюда в Disavow Tool. Жмем — «Отклонение ссылок»:
«>
Еще раз — «Отклонение ссылок» и загружаем туда наш файл, который нам дал checktrust:
«>
Загружаем — отправляем и все. Далее зайдите в инструментах для вебмастеров google — «Сообщения о сайте» и проверьте, чтобы у вас было написано четко, что отклонили вы столько то доменов, чтобы не было по нулям:
«>
Все! Плохие ссылки мы отклонили! Но этого мне было мало, чтобы выйти из под фильтра. Мне обязательно нужно было восстановить динамику роста ссылочной массы. То есть мне нужно было сделать так, чтобы на меня снова начали ссылаться различные сайты и блоги.
Если сказать коротко, то мне надо было начать улучшать свой ссылочный профиль, чем я и занялся. Что такое ссылочный профиль, как его проанализировать и улучшить я рассказывал в своем курсе Как стать блоггером тысячником 3.0
Естественно самое главное в улучшении ссылочного профиля — это постоянный прирост новых качественных ссылок. Новые входящие ссылки нужно получать постоянно и в этом мне так же помог и помогает до сих пор сервис Checktrust.
Это вообще сейчас инструмент №1 в продвижении моего блога. Как его использовать при покупке ссылок, я так же рассказал в курсе КСБТ 3.0. Владелец этого сервиса Александр Алаев, про которого я вам уже не раз говорил. Саня спасибо за такую крутую штуку.
Как же она здоровски помогает не выкидывать 90% бюджета при покупке ссылок в трубу. В общем я начал изо дня в день получать входящие ссылки (бесплатно и платно, покупая их на биржах). Вы слышали, что Яндекс отменил ссылки? =) Верьте этому дальше. ))))
В общем вот таким вот образом я вышел из под ручного фильтра google. Есть еще и автоматический фильтр. Чем он отличается от ручного? А отличается он тем, что у вас блог (сайт) вылетает за топ 50-100 по всем позициям, трафик жестко проседает, но уведомления в панели инструментов google вы не получаете. Все просто!
И если от ручного фильтра избавиться можно в принципе быстро, только использовав checktrust, то от автоматического будет избавиться гораздо сложнее потому что он снимается не людьми, которые смотрят вашу заявку на пересмотр и принимают решение, а роботами (алгоритмами).
А у роботов есть определенные цифры выхода из под фильтра и пока ваш ресурс не выйдет на эти цифры, вы из под фильтра не выйдете, так же надо ждать апдейтов алгоритмов gogole пингвин. Схема выхода их под автоматического фильтра пингвина такая же как для ручного:
1. Убираем по возможности те ссылки, что можем убрать
2. Отклоняем все плохие ссылки в Disavow Tool
3. Улучшаем ссылочный профиль входящими ссылками (качественными)
Если вы видите например, что у вас есть хороший трафик с Яндекса, а с google с гулькин клюв, то это сигнал — вы под фильтром. Или панды или пингвина. За что наказывает панда вы уже знаете. Если считаете, что у вас все «зер гут» с пандой, то значит не все так хорошо с пингвином.
Нужно принимать меры. Но не стоит сразу паниковать и бежать отклонять ссылки. Может быть стоит просто посмотреть все свои входящие ссылки, проанализировать их в checktrust, посмотреть на то, какого они качества и наглядно оценить всю картину.
То есть каких ссылок больше плохих или хороших. Если вы видите реально, что на вас ссылаются мало качественных ресурсов, то надо эту ситуацию исправлять и начать добывать качественные ссылки. Я замечу КАЧЕСТВЕННЫЕ!
А качественные ссылки — это далеко не ссылки с сайтов с большим ТИЦ, PR и посещаемостью. Нужно смотреть на другие показатели. В этом вам и поможет сервис checktrust. А более подробно о правильной покупке ссылок я говорил в курсе КСБТ 3.0.
Ну вот наверное и все. На этом я буду заканчивать и в заключение у меня для вас есть интересное предложение:
ТОТ КТО ДО 15 АВГУСТА 2014 ГОДА ЗАРЕГИСТРИРУЕТСЯ В СЕРВИСЕ CHECKTRUST ПО МОЕЙ ПАРТНЕРСКОЙ ССЫЛКЕ И ПОПОЛНИТ БАЛАНС СВОЕГО СЧЕТА МИНИМУМ НА 1000 РУБЛЕЙ, ТОТ ПОЛУЧИТ ОТ МЕНЯ ОЧЕНЬ ХОРОШИЙ ПРЕЗЕНТ.
ПОСЛЕ РЕГИСТРАЦИИ И ПОПОЛНЕНИЯ БАЛАНСА ПРОСТО НАПИШИТЕ МНЕ В ПОДДЕРЖКУ И ПОЛУЧИТЕ СВОЙ ПОДАРОК. ЕСЛИ ВЫ ПОПОЛНИТЕ БАЛАНС НА 2000 РУБЛЕЙ, ТО В ДОБАВОК К ПОДАРКУ Я ЛИЧНО ПОСМОТРЮ ВАШ БЛОГ, ПРОАНАЛИЗИРУЮ ЕГО НА ОШИБКИ И СКАЖУ ВАМ ЧТО НУЖНО ИСПРАВИТЬ.
ЕСЛИ НАПРИМЕР У ВАС ЕСТЬ КАКИЕ-ТО НЕДОПОНИМАНИЯ С УСТРАНЕНИЕМ ДУБЛЕЙ НА ВАШЕМ БЛОГЕ, О КОТОРЫХ Я ГОВОРИЛ В ДВУХ ПРЕДЫДУЩИХ СТАТЬЯХ, ТО Я ВАМ В ЭТОМ ТАК ЖЕ ПОМОГУ И ВСЕ НАСТРОЮ!
НО! Не стоит думать, что я написал эту статью лишь бы пропиарить сервис checktrust и заработать комиссионных. Это не так. Это действительно реальный сервис, который я сам использую почти каждый день и настоятельно рекомендую вам использовать его.
А предложение я вам делаю, потому что участвую в конкурсе от checktrust, где разыгрывается 5 айфон, который я бы хотел выиграть и вручить победителю конкурса «Лучший блог года по мнению ISIF-LIFE». =) Вот такие пироги.
Если у кого-то будут какие-то вопросы, то обращайтесь в комментариях. Но по идее я думаю, что все понятно объяснил.
Ребята, знаете почему сегодня у большинства блоггеров печальная ситуация с трафиком от google и yandex? Ну да, технические косяки играют роль, но одна из самых главных причин — это отсутствие хорошей входящей ссылочной массы или же вообще полное ее отсутствие.
Сколько писем я получаю в поддержку, — «Александр, что делать? Пишу в блог уже второй год, а трафика с ПС все нет. Статьи уникал, интересные, полезные, есть куча читателей… ПОМОГИ!»
Это все супер, что у вас много читателей и статьи классные, но это мало. Вы должны показать и доказать, что они действительно классные. Показать это могут только качественные, трастовые, входящие ссылки. И чем их больше тем лучше.
Если авторитетный сайт ссылается на вас, то это прямой показатель того, что ваш сайт интересен. Если вы ведете блог 2-3 года и у вас 100 входящих ссылок, то не ждите мега посещаемости. Посмотрите на проекты, которые выходят на десятитысячные посещаемости.
Там ссылочное продвижение продумывается еще до начала ведения проекта. Там есть целые методики, анализы, планирование ссылочного продвижения и т.д. Именно поэтому одни ресурсы развиваются хорошо, а другие в попе.
В общем последнее — используйте ссылочное продвижение и будет вам счастье, и не слушайте ни какие заявления, что ссылки не работают, их отменили и т.д. Удачи!
P.S. Наверное самый последний вопрос у вас — «Что мне делать сейчас? Письмо от google мне не пришло, вроде как я не под фильтром, трафик какой ни какой, но идет. Что тогда?»
А тогда просто оцените качество всех входящих на ваш блог ссылок через сервис checktrust (как это делать я говорил в КСБТ 3.0) и если вы видите, что картина печальная ссылок мало и основная масса не очень хорошего качества, то принимайте меры.
Уверяю вас! Начнете получать качественные ссылки, увидите рост трафика. Я это наглядно показывал до февраля 2012 года пока не получил панду за дубли.
Ну все, всем пока! Жду ваших вопросов в комментариях!
С уважением, Александр Борисов
isif-life.ru
Зачем был создан Penguin
Давайте заглянем в прошлое и посмотрим, как раньше продвигались сайты. Например, нужно было выйти в ТОП по какому-нибудь высокочастотному запросу.
Что для этого делал вебмастер, писал оптимизированную статью, где неоднократно употреблял ключевое слово в содержании статьи, а затем, используя ссылочные биржи, покупались десятки ссылок, притом с доноров не самого лучшего качества, в которых анкор и был продвигаемый запрос.
В итоге такой псевдо СДЛ сайт занимал высокие места в ТОП Гугл и получал тонны трафика. Конечно же, это не могло продолжаться долго и Google был вынужден настроить свои алгоритмы таким образом, чтобы исключить из выдачи некачественные сайты, умышленно завышающие свои позиции.
Если с контентом начала бороться Панда, то следить за качеством входящих и исходящих ссылок пришлось новоиспеченному Пингвину, который после запуска изменил всемирную выдачу до неузнаваемости.
Penguin — это кодовое слово очередного фильтра от Гугла, который фильтрует сайты, опуская из на низкие позиции в выдаче, за неестественную ссылочную массу.
Ниже мы более детально рассмотрим те факторы, за которые применяются санкции к площадкам.
За что наказывает фильтр Пингвин
Если после очередного обновления данного фильтра вы заметили, что трафик резко пошел вниз, то скорее всего к сайту были применены санкции.
Посмотрите на один сайт, который пострадал от Пингвина в день его выхода на свет.
Причины, из-за которых страдают сайты:
Качество входящих ссылок. Теперь для Гугла неважно количество входящих ссылок, ему важно качество, а самое главное естественность. Все остальное может быть расценено, как умышленное манипулирование результатами выдачи, к которым следует отнести:
— Ссылки, у которых в анкоре присутствует прямое вхождение ключевых слов;
— Размещение ссылок на заспамленных, некачественных площадках;
— Обмен ссылками;
— Сквозные ссылки в футере и сайдбаре;
— Неравномерное распределение ссылок по страницам сайта.
Исходящие ссылки. Если вы решили поставить исходящую ссылку, то обязательно проверьте сайт, на который хотите ссылаться, потому что он должен быть качественным, а не спамным.
То же самое касается вебмастеров зарабатывающих на продаже ссылок. Если на сайте в основном присутствуют коммерческие или нетематические ссылки, то велика вероятность, что такая площадка может попасть под клюв Пингвина.
Скорость прироста ссылок. Ссылки должны появляться на сайт постепенно, по мере его развития. Если вы любите в качестве средств продвижения использовать прогоны по базам профилей и каталогов, то пора с этим завязывать.
Гуглу не понравится, если вчера на ваш сайт вело 100 линков, а спустя день уже ссылается 1000 — это явный признак линкспамерства.
Все вышеперечисленное можно заменить одним словом — ЕСТЕСТВЕННОСТЬ.
Как проверить под каким фильтром находится сайт
Если в один прекрасный день вы по неизвестным причинам лишились трафика из поисковой сети Google, то первым делом надо определить под каким именно фильтром находится ваша площадка, чтобы разработать стратегию по скорейшему снятию санкций.
Как я уже писал, фильтр Пингвин имеет две разновидности в плане применения к площадкам: ручной и автоматический.
При ручном методе наложения санкций, как правило, приходит уведомление в панели Гугл Вебмастер, в котором сообщается, из-за чего пострадал сайт.
Содержание письма может в некоторых случаях отличаться, но суть его остается одна и та же — избавиться от некачественных и неестественных бэклинков. После чего надо отправить запрос на перепроверку площадки.
Чтобы найти это уведомление нужно инструментах для вебмастеров перейти в раздел «Поисковый трафик» далее «Меры, принятые вручную».
Если сайт подвергся ручным санкциям, то в этом разделе будет находиться злосчастное письмо от службы по борьбе с поисковым спамом. Но большинство вебмастеров видит следующую картину.
В этом случае ручной фильтр Пингвина к проверяемой площадке не был применен и следует копать в сторону автоматического.
Пингвин, как и другие фильтры, периодически обновляет свою базу некачественных площадок, а статистика показывает, что это происходит два раз в год.
Ниже я выписал последние даты, когда произошел апдейт Penguin:
24 апреля 2012 года
25 мая 2012 года
5 октября 2012 года
22 мая 2013 года
4 октября 2013 года
17 октября 2014 года
Теперь нужно сопоставить день, когда начался спад трафика с днем обновления фильтра и если эти числа совпадают, считайте истинная причина пессимизации площадки в выдаче установлена и можно приступать к ее лечению.
Но есть и другой способ узнать, под какой именно фильтр от Гугла попал сайт. Решением стал зарубежный сервис под названием Barracuda.
В его арсенале есть продукт Panguin Tool, который берет данный из статистики Google Analytics, а затем накладывает на график посещаемости даты обновления всех фильтров, что позволит лучше оценить, какой из них повлиял на ранжирование страниц сайта.
Для того чтобы его опробовать в действии на вашем сайте должна быть подключена статистика Гугл Аналитикс, правда для того чтобы воспользоваться услугами этого сервиса придется предоставить ему данные для входа в Аналитику, что не всегда может быть безопасным, однако я по этому поводу заморачиваться не стал.
1) Входим в свой аккаунт Гугл Аналитики, для чего нажимаем на кнопку «Log-in to Analytics».
2) Далее вам надо подтвердить право на предоставление доступа приложения «Barracuda Digital».
3) Теперь надо выбрать тот аккаунт сайта, с которого будет сниматься статистика посещаемости.
4) Перед вами появится заветный график за последний год, на который будут нанесены все даты обновления Гугл фильтров.
Если посмотреть на статистику моего блога, вывод напрашивается неоднозначный. Четко видно, что падение трафика началось с обновления Панды, а когда трафик начал уменьшаться, произошел апдейт Пингвина, что тоже могло повлиять на ранжировании сайта в целом.
Теперь передо мной стал вопрос, под каким именно фильтром находится мой блог: Пандой или Пингвином? Буду рад, если в комментариях вы поможете мне в этом разобраться.
Как вернуть позиции сайта и победить Пингвина
Если с Пандой дела обстоят неоднозначно и чтобы ее победить, надо смотреть в сторону контента, то с Пингвином все куда радужней, так как достаточно убрать некачественные и неестественные ссылки на сайте и в случае с ручным фильтром отправить сайт на перепроверку, а с автоматическим ждать, когда случится апдейт.
Но как убрать такие ссылки, а также как узнать какие из них качественные, а какие нет? Если с исходящими ссылками все понятно, достаточно пробежаться по статьям и поставить на них запреты noindex и nofollow, то с входящими вечными линками все намного сложнее.
Для таких ситуаций Гугл пошел навстречу вебмастерам и придумал сервис Disavow links по отклонению ссылочной массы, которая не будет учитываться алгоритмами поисковика при ранжировании сайта.
Все что нам нужно это скачать список всех ссылающихся сайтов, о которых известно Гуглу, далее проверить их на качество, а затем все некачественные площадки отправить в Disavow links, сообщая тем самым, что на них не нужно обращать внимание при анализе ссылочной массы.
Скачиваем список входящих ссылок. Для этого идем в панель инструментов Гугл Вебмастер в раздел «Поисковый трафик» далее «Ссылки на ваш сайт» и в самом низу списка жмем «Дополнительно».
Далее надо выгрузить все ссылки к себе на компьютер. Для этого нажимаем кнопку «Загрузить последние ссылки», еще обратите внимание, что ссылок у вас будет куда больше, чем входящих доменов.
Затем выбираете, в каком формате надо сохранить список ссылок, я придерживаюсь документа Excel.
Далее у вас два варианта, как проверить полученный список ссылок на качество:
— Самостоятельно просматривать все доноры из списка, проверять их показатели, опираясь на свои навыки.
— Доверить проверку специальным сервисам, о которых я рассказал в статье «Как проверить ссылки на предмет качества».
Я пошел по более простому для меня варианту, так как не считаю, что могу потратить столько времени, чтобы проверить около 1000 доменов.
Переходим в сервис CheckTrust и выбираем в меню создать проект «BackLinks Checker».
Далее вводим любое название проекту и загружаем скаченный ранее файл со ссылками. Если какие-то ссылки из файла вы уже проверили сами, то можете вставить список оставшихся ссылок в специальное поле для проверки и нажимаем «Далее».
Далее вам надо выбрать тип очистки:
Легкая чистка — удалению подвергнутся только бэклинки с самых некачественных сайтов.
Умеренная чистка — в список попадут все подозрительные сайты по качеству оцениваемые как ниже среднего.
Отличная чистка — все, вызывающее хоть какое-то подозрение, будет удалено.
Жесткая чистка — среди «выживших» останутся ссылки с сайтов только высшего качества, по статистике это не более 5-10% всех бэклинков.
Нужны все варианты — получите все 4 файла со ссылками после разных степеней чистки.
Сразу скажу, что берите лучше последний вариант, чтобы у вас были все списки, и вы наглядно видели какие из доменов все-таки стоит оставить.
После того как система проверит проект и его статус обработки станет «Выполнено» вам нужно будет по нему кликнуть, чтобы произошла его загрузка на компьютер.
Это будет текстовый файл со списком сайтов, которые система посчитала некачественными и которые стоит добавить в сервис Disavow links от Google. Если посмотреть скаченный файл, то вы увидите примерно такую картину.
Именно в таком формате domain:сайт и надо отправлять все исключаемые площадки в Disavow links. Как видите, CheckTrust сделал неинтересную работу за вас.
Теперь надо перейти в инструмент Disavow links, почему-то прямой ссылки на него из панели Гугл Вебмастер я не обнаружил, а далее выбрать сайт, для которого будете отклонять ссылки.
Читаем внимательно предупреждение, видно создано для тех, кто случайно решил воспользоваться этим инструментом.
Далее выбираем файл, который мы получили в сервисе проверки ссылок и нажимаем «Готово», а потом «Отправить».
Если вы все сделали правильно, то в сообщениях о сайте должны получить уведомление, в котором будет стоять такая же цифра отклоненных доменов, сколько было в загружаемом файле.
После всех вышеописанных манипуляций останется ждать, когда произойдет обновление фильтра Пингвин и с сайта снимутся санкции, но при этом не стоит забывать, что ссылки должны постоянно прибавляться. Гугл любит динамику постоянного роста качественной ссылочной массы.
Так что обратные бэклинки нужно добывать всеми возможными способами постоянно, а вот как это сделать вы узнаете в следующих постах, главное не пропустите!
На сегодня у меня все, расскажите, как вы победили фильтр Пингвин и какими инструментами для этого пользуетесь. Пока!
seoslim.ru