Яндекс алгоритм

7 апреля 2017 – алгоритм «Баден-Баден» — хостовый режим
С этого момента за наличие признаков переоптимизации на некоторых страницах может быть понижен весь сайт. В панели Я.Вебмастер появились сообщения о понижении за поисковый спам.

23 марта 2017 – алгоритм «Баден-Баден» — постраничный режим
Встроенный в ядро поискового алгоритма фильтр, который понижает в выдаче страницы с переоптимизированными текстами. На начальном этапе фильтр понижал отдельные страницы, также зафиксированы случаи позапросного срабатывания фильтра.

2 ноября 2016 – алгоритм «Палех»
Формула ранжирования, которая «умеет» находить соответствия между поисковым запросом и документом даже в том случае, если в самом документе отсутствует фраза из запроса. На момент запуска работает только для Title страниц.


8 июня 2016 – обновление алгоритма расчета тИЦ
С этого момента тематический индекс цитирования рассчитывается по новым правилам, основанным на качестве и тематическом соответствии ссылающихся страниц.

2 февраля 2016 – запуск алгоритма «Владивосток»
Изменение алгоритма ранжирования в мобильной выдаче. Яндекс начинает учитывать оптимизацию сайтов под мобильные устройства. Теперь выдача на стационарных и мобильных устройствах может отличаться, и приоритет в мобильной выдаче будет отдан тем сайтам, которыми удобно пользоваться с мобильных устройств.

30 декабря 2015 – фильтр за кликджекинг
Понижение сайтов, использующих кликджекинг (невидимые элементы, взаимодействие с  которыми пользователь осуществляет, не подозревая этого).


Ноябрь 2015 (точная дата неизвестна) – включение ссылочного фактора
В рамках выступления на Школе для Вебмастеров представители Яндекса сообщили, что ссылочное ранжирование снова работает для ряда тематик по Москве. В последствие

2 октября 2015 – фильтр «Опасные сайты»
Понижение в выдаче сайтов, представляющих опасность для компьютера пользователя. Ранее такие сайты не понижались, а просто отмечались специальной отметкой.

Сентябрь-ноябрь 2015 – алгоритм «Киров». Многорукие бандиты Яндекса
Рандомизация выдачи. Подмешивание в ТОП к трастовым «старожилам» молодых сайтов с целью дать последним возможность накопить ПФ. С этого момента возраст сайта перестал играть ключевое значение в поисковом продвижении.

8 сентября 2015 – запуск обновленного фильтра АГС
Нацелен на ограничение в ранжировании сайтов, злоупотребляющих размещением SEO-ссылок, вне зависимости от качества. Ограничения сопровождаются аннулированием тИЦ. Согласно заявлению Яндекса, чтобы выйти из-под санкций, достаточно отказаться от размещения SEO-ссылок на сайте.


23 июня 2015 – третья волна «Минусинска»
Третья волна понижения сайтов за SEO-ссылки.

27 мая 2015 – вторая волна понижений за SEO-ccылки
Вторая волна первой итерации Минусинска, пострадало около 200 сайтов, по показателям сайты не отличаются от пострадавших в первой волне.

15 мая 2015 – первая волна понижений за SEO-ссылки
За использование SEO-ссылок в результате первой итерации фильтра Минусинск было понижено 488 сайтов. Яндекс продолжает призывать всех вебмастеров отказываться от использования SEO-ссылок – созданных, чтобы повлиять на поисковую систему. Подробнее об официальных результатах Минусинска тут.

15 апреля 2015 – анонс нового алгоритма «Минусинск»
На конференции «Неделя Байнета» в Минске Александр Садовский анонсировал выход нового алгоритмического фильтра Яндекса – «Минусинска», направленного на борьбу с ссылочным спамом. После анонса 9 тысяч сайтов получили уведомления с рекомендацией отказаться от использования SEO-ссылок и других некорректных способов продвижения.


1 апреля 2015 – «Амстердам»
Изменения на странице результатов выдачи — справа от результатов поиска появился блок с общей информацией о предмете запроса.

30 декабря 2014 – очередная волна пессимизации за накрутку ПФ
Кроме накрутчиков, под раздачу попали сайты так называемого «Живого Щита» — ресурсы, которым поведенческие накручивались без ведома их владельцев, с целью сбить с толку алгоритмы Яндекса.

1 декабря 2014 – волна пессимизации за накрутку ПФ
Понижены тысячи сайтов, которые накручивали переходы из результатов выдачи. Также впервые были пессимизированы ресурсы, использовавшие так называемое «усиление ссылочного» — накликивание покупных ссылок с целью улучшить передачу ссылочного веса.


19 cентября 2014 – волна понижений за агрессивную рекламу
Ужесточение санкций по отношению к сайтам с отвлекающей рекламой. Релиз вышел с погрешностью — было пессимизировано большое количество белых сайтов, где нормальные рекламные блоки с помощью браузерных вирусов подменялись на агрессивные. Позже эта погрешность была устранена.

14 cентября 2014 – изменение формулы ранжирования информационных сайтов
Ужесточение алгоритма для некоммерческих ресурсов. Очередная волна понижения видимости инфоресурсов за отсутствие добавочной ценности контента.

2-5 июня 2014 – «Острова»
Экспериментальное изменение дизайна результатов поиска. Ответы на некоторые запросы можно было увидеть прямо на странице выдачи, без перехода на сайт. Через некоторое время разработчики признали, что эксперимент не удался.


15 апреля 2014 — изменения в алгоритме АГС
С этого момента при попадании сайта под АГС число его страниц в индексе не уменьшается. Признаком АГС теперь является обнуление тИЦ.

20 марта 2014 – понижение видимости сайтов с шокирующей рекламой
Сайты, размещающие тизерную и другую отвлекающую рекламу, стали понижаться в выдаче. Под раздачу попали ресурсы, которые монетизировались за счет рекламных блоков с эротическими картинками, кадрами из фильмов ужасов, изображением частей тела с избыточным весом и другой неприятной рекламой.

12 марта 2014 – Алгоритм «Началово». Первый этап отмены ссылок
Обновление формулы ссылочного ранжирования для коммерческих запросов (Москва) в тематиках «Недвижимость», «Туризм», «Электроника и бытовая техника».

5 декабря 2013 – анонс бессылочного ранжирования
Руководитель веб-поиска Александр Садовский на конференции в Москве сообщил, что Яндекс готовит новую формулу ранжирования, в которой отсутствуют ссылочные факторы. Алгоритм обещали запустить вначале 2014 года и только для коммерческих запросов по Москве.


6 ноября 2013 – АГС 40
Обновился набор показателей низкого качества контента. Основной причиной наложения фильтра стало отсутствие добавочной ценности сайта. Фильтр затронул в основном МФА-сайты и ресурсы, созданные под монетизацию на партнерских программах, и стал полностью автоматизированным.
Об отличиях АГС-40 от предыдущих версий фильтра.

30 мая 2013 – алгоритм «Дублин»
Еще один шаг в сторону персонализации выдачи. Теперь результаты поиска подстраиваются под интересы пользователя прямо во время поисковой сессии.

16 мая 2013 – анонс платформы «Острова»
Яндекс впервые рассказал о новой поисковой платформе «Острова». Предполагалось радикальное изменение формата выдачи, при котором пользователь мог бы решать свою проблему прямо на странице поиска, не посещая сайт (заказывать еду, бронировать гостиницу, покупать билеты).
Выкатить острова планировалось за полтора-два месяца, но по неизвестным причинам этот момент постоянно откладывался. 26 июля 2013 на Beta.yandex.ru запущена тестовая версия «Островов».


15 мая 2012 – пессимизация сайтов с обманными pop-up элементами
Сайты со всплывающими окнами, заточенными под системные уведомления или сообщения социальных систем, стали понижаться в выдаче автоматически.

16 февраля 2012 – региональная выдача для Я.Картинок
Разные ответы для России, Украины, Беларуси и Казахстана.

7 февраля 2012 – персонализация подсказок для зарегистрированных пользователей
Яндекс начинает учитывать историю запросов пользователей при формировании подсказок в поисковой строке. Еще один шаг к персонализации выдачи.

12 декабря 2012 – Калининград. Персонализация результатов поиска
Попытка подстроить Топ-10 и поисковые подсказки под каждого пользователя, основываясь на истории его запросов и поведения на странице выдачи. Согласно исследованию платформы «Калининград», объемы трафика у старых трастовых сайтов выросли. А вот продвигать молодые ресурсы в персональном поиске привычными методами стало сложнее.


23 ноября 2011 – новый алгоритм для коммерческих сайтов
Формула ранжирования пополнилась коммерческими факторами: удобство сайта, ассортимент продукции, цены, сервис и т.д. Изначально релиз был запущен для московской выдачи, со временем распространился на другие регионы.

5 октября 2011 – Яндекс начинает учитывать юзабилити
С этого момента в выдаче автоматически понижаются перенасыщенные рекламой сайты, а ресурсы с неудобной навигацией начинают испытывать проблемы при продвижении.

13 сентября 2011 – фильтр «Ты Спамный»
Санкции за переспамленные тексты. Первый фильтр Яндекса, учитывающий ПФ (понижались только те спамные тексты, которые имели низкие поведенческие показатели). Изначально фильтр был запросозависимым и накладывался на отдельные страницы.


17 августа 2011 – Рейкьявик
Построение результатов выдачи на базе языковых предпочтений пользователя. Первый шаг к персонализации выдачи на уровне конкретного посетителя.

Май 2011 – первая волна ручной пессимизации сайтов за накрутку ПФ
Были понижены позиции известных SEO-компаний и их клиентов. 23 мая на блоге Яндекса появилось официальное предупреждение.

17 декабря 2010 – новая формула ранжирования по геозависимым запросам
В каждом регионе привилегию получили сайты с привязкой к этому региону. Продвигать один сайт в нескольких регионах стало проблематично.

15 декабря 2010 – Краснодар. Внедрение «Спектра» в выдачу
Разделение сайтов на 60 смысловых категорий. Принцип квоты для сайтов из разных категорий в выдаче по запросам общего характера. Результаты поиска по ВЧ стали более разнообразными – в Топ 10 по общему ВЧ можно было встретить интернет-магазин, энциклопедию и форум (технология «Спектр»).
Приоритет поведенческих факторов (действия пользователя на странице результатов выдачи).

2 ноября 2010 – улучшение ранжирования авторских текстов
Изменения алгоритма определения авторства документа.

13 сентября 2010 – Обнинск
Улучшено определение региональности сайтов. В выдаче по ГНЗ запросам преимущество получили сайты без привязки к региону.
Изменилось отношение к коммерческим ссылкам. Наложение «фильтра времени» на коммерческие ссылки – донор начинает передавать вес акцептору только через 2-4 месяца от момента появления ссылки.

17 марта 2010 – Снежинск 1.1
Обновление формулы ранжирования по НГЗ запросам. Приоритет в выдаче получили сайты некоммерческой направленности – энциклопедии, обзоры.

20 января 2010 – портяночный фильтр Яндекса
Санкции за длинные тексты («портянки»), переспамленные ключевыми словами. Фильтр накладывался на отдельные страницы и лечился сокращением текста в несколько раз (при этом плотность ключевиков могла оставаться на том же уровне). Портяночный фильтр – предшественник алгоритма «Ты спамный», который появился в 2012 году.

22 декабря 2009 – Конаково
Локальное ранжирование получили 1250 городов России.

18 декабря 2009 – АГС 30
Расширилось число факторов, влияющих на решение алгоритма исключить сайт из индекса. С этого момента под фильтры начали попадать и псевдоСДЛ – сайты с технически уникальным, но не интересным для пользователей контентом.
Фильтр мог накладываться как вручную, так и автоматически.

17 ноября 2009 – Снежинск. Первый алгоритм на платформе MatrixNET
Региональную выдачу получили 19 городов. Число параметров, которые учитываются при ранжировании документов, увеличилось до нескольких тысяч. В формуле появились поведенческие факторы.
Поменялся принцип ранжирования коммерческих запросов. Качество сайта в целом стало играть бОльшую роль, чем релевантность отдельной страницы.
Яндекс научился отличать коммерческие ссылки от некоммерческих на основании анализа анкоров (Мадридский доклад).

28 сентября 2009 – фильтр АГС 17
Первое официальное упоминание этого фильтра, который, по словам Яндекса, работает с 2006 года.
Симптом фильтра – в выдаче остается от 1 до 10 страниц сайта. Первый релиз коснулся в основном автоматически наполняемых ресурсов и сайтов с неуникальным контентом.

20 августа 2009 – Арзамас 1.2. Классификатор геозависимости запросов
Разделение запросов на геозависимые и геонезависимые. Приоритет старых трастовых сайтов в выдаче по ГНЗ. В топах по ГНЗ показываются преимущественно морды.

11 августа 2009 – понижение сайтов с системами clickunder
Продолжение войны с агрессивной рекламой, начатой 30 апреля.

24 июня 2009 – Арзамас 1.1.
Улучшена формула ранжирования для регионов России, исключая Москву и Санкт-Петербург. Повысилась значимость возраста домена. В выдаче замечены страницы с портянками текста и малым количеством бэклинков.

30 апреля 2009 – начало войны с агрессивной рекламой
Яндекс начал искусственно понижать в выдаче страницы с popunder-баннерами.

8 апреля 2009 – Арзамас (Анадырь). Региональная выдача
Региональную выдачу получили Москва, Санкт-Петербург, Украина, Белоруссия и Казахстан. Спустя почти 3 месяца в панели Я.Вебмастер появилась возможность привязки сайта к региону.
При ранжировании по запросам с неоднозначным смыслом стала учитываться история уточняющих запросов.
Подмешивание картинок в результаты поиска по некоторым запросам.

11 сентября 2008 – Находка
Повышение веса внутренних страниц – в выдаче по СЧ и некоторым ВЧ параллельно с мордами появились внутряки.
Морфологические изменения, отличия в выдаче по запросу в единственном и множественном числах.
Подмешивание информационных сайтов в выдачу по коммерческим запросам. Википедия в выдаче.

28 августа 2008 – изменения в алгоритме тИЦ
Нововведение коснулось сайтов, которые накручивали тИЦ по специальным схемам. У около 15% сайтов тИЦ снизился до 0-10.

2 июля 2008 – Магадан 2.0
Большой вес получил фактор уникальности текстов. Яндекс научился определять и по-другому ранжировать коммерческие запросы. Значение возраста сайта понижено.

16 мая 2008 года — Магадан
Первый именной алгоритм Яндекса. Выдача по информационным запросам. Яндекс научился расшифровывать аббревиатуры и транслитерацию.
Это первый алгоритм, который до выката в основной поиск тестировался вебмастерами на buki.yandex.ru почти месяц (с 14 апреля).

4 апреля 2008 года – появление иноязычных документов выдаче
Яндекс начинает искать по зарубежному интернету, в выдачу подмешиваются англоязычные сайты.

18 марта 2008 года – наступление на SEO ссылки
Ссылки с главных страниц теряют вес. Массовая просадка сайтов, которые держались в топах за счет ссылок с морд. Ссылки с внутренних страниц продолжают работать.

5 февраля 2008 – «Гости из прошлого» или «Непот в тумане»
Отмена непот-фильтра в чистом виде. Ссылки с сайтов, находящихся под непотом, получили минимальный вес (близкий к нулю). С этого момента стало невозможным определять «занепоченные» площадки с помощью меток в анкорах.
Название алгоритма пошло от ветки форума на Серче.

17 января 2008 – «Восьмерка» SP 1
Меняется отношение к внешним ссылкам. Снижение веса ссылок с «морд». Вебмастера массово переходят на покупку ссылок с внутренних страниц доноров.

7 августа 2007 года – «Родео»
Новая формула ранжирования для однословных запросов. Приоритет по однословникам в выдаче получили главные страницы («морды»).
Свое название алгоритм получил из анонса, опубликованного на Forum.Searchengines.ru Александром Садовским.

2 июля 2007 года – изменение формулы ранжирования
Алгоритм стал запросозависимым – для однословных и многословных запросов стали применяться разные формулы ранжирования.
Яндекс впервые анонсировал свой алгоритм и дал возможность вебмастерам оставлять свой фидбек.
Анонсирован на Forum.Searchengines.ru Александром Садовским.

2005 год – непот-фильтр
Внешние ссылки с сайтов, занимающихся активной линкоторговлей, перестали передавать вес. Оптимизаторы начинают использовать метки в анкорах, чтобы идентифицировать занепоченные площадки.

 

Еще по теме:

  • Как высчитать ROI всего проекта: сквозная аналитика простыми словами
  • Конверсия сайта: как считать, от чего зависит
  • Что поменялось в алгоритме Google в августе 2018?

siteclinic.ru

Искусственные нейронные сети — просто о сложном

Простыми словами ИНС — это метод программирования, отличительной особенностью которого является способность к самообучению. Создан он по образу нейросетей человеческого мозга. В ходе обучения ИНС поглощает огромное кол-во информации и на базе этого опыта может анализировать и выдавать верный ответ на запрос. В нашем случае это связь между поисковым запросом и релевантным заголовком на странице сайта.

Связь между запросом и заголовком искусственная нейронная сеть представляет в виде векторов, так как сложнее всего ИНС распознает именно текст, а проще всего картинки. Таким образом, переформатировав текст в векторы, нейронная сеть сравнивает их и похожие между собой векторы предлагает в качестве релевантной страницы под запрос.

convertmonster.ru

Хронология алгоритмов Яндекса 2007–2018

NN Дата запуска Название алгоритма и основные изменения
1

2 июля 2007

«Версия 7» (новая формула ранжирования, повышение числа факторов, анонс состоялся только на searchengines.guru/showthread.php?t=149644).

2

20 декабря 2007, 17 января 2008

«Версия 8» и «Восьмерка SP1». Авторитетные ресурсы получили значимый плюс в ранжировании, внедрение фильтрации «прогонов» для накрутки ссылочных факторов.

3

16 мая, 2 июля 2008

Магадан (Fast Rank для быстрого подбора претендентов, мягкость, расширение базы аббревиатур и синонимов, расширенные классификаторы документов), Магадан 2.0 (уникальность контента, новые классификаторы запросов пользователей и документов).

4

11 сентября 2008

Находка (учёт стоп-слов в поисковом запросе, новый подход к машинному обучению, тезаурус).

5

10 апреля, 24 июня, 20 августа, 31 августа, 23 сентября, 28 сентября 2009

Арзамас / Анадырь (учёт региона пользователя, снятие омонимии), Арзамас 1.1 (новая региональная формула для ряда городов, кроме Москвы, Санкт-Петербурга и Екатеринбурга), Арзамас 1.2 (новый классификатор геозависимости запросов), Арзамас+16 (независимые формулы для 16 регионов России), Арзамас 1.5 (новая общая формула для геонезависимых запросов), Арзамас 1.5 SP1 (улучшенная региональная формула для геозависимых запросов).

6

17 ноября 2009

Снежинск (запуск технологии машинного обучения MatrixNet, кратный рост числа факторов ранжирования, 19 локальных формул для крупнейших регионов России, сильнейшие изменения выдачи).

7

22 декабря 2009, 10 марта 2010

Конаково (неофициальное название, но далее будет именно Обнинск, свои формулы для 1250 городов по всей России), Конаково 1.1 (Снежинск 1.1) — обновление формулы для геонезависимых запросов.

8

13 сентября 2010

Обнинск (перенастройка формулы, повышение производительности, новые факторы и ранжирование для геонезависимых запросов, доля которых в потоке составляет более 70%).

9

15 декабря 2010

Краснодар (технология «Спектр» и повышение разнообразия выдачи, разложение запроса пользователя на интенты), далее: повышение локализации выдачи по геозависимым запросам, независимые формулы для 1250 городов России.

10

17 августа 2011

Рейкьявик (учёт языковых предпочтений пользователей, первый шаг персонализации выдачи).

11

12 декабря 2012

Калининград (существенная персонализация выдачи: подсказки, учёт долгосрочных интересов пользователя, повышение релевантности для «любимых» сайтов).

12

30 мая 2013

Дублин (дальнейшая персонализация выдачи: учёт сиюминутных интересов пользователей, подстройка результатов выдачи под пользователя прямо во время поисковой сессии).

13

12 марта 2014

Началово* «Без ссылок» (отмена учета ссылок / ряда ссылочных факторов в ранжировании для групп коммерческих запросов в Московском регионе).

14

5 июня 2014

Одесса* «Острова» (новый «островной» дизайн выдачи и сервисов, внедрение интерактивных ответов, в дальнейшем эксперимент были признан неуспешным и завершен).

15

1 апреля 2015

Амстердам* «Объектный ответ» (дополнительная карточка с общей информацией о предмете запроса справа от результатов выдачи, Яндекс классифицировал и хранит в базе десятки миллионов различных объектов поиска).

16

15 мая 2015

Минусинск (понижение в ранжировании сайтов с избыточным числом и долей SEO-ссылок в ссылочном профиле, массовое снятие SEO-ссылок, дальнейшее возвращение учёта ссылочных факторов в ранжировании по всем запросам в Московском регионе).

17

14 сентября 2015 (± 3 месяца)

Киров* «Многорукие Бандиты Яндекса» (рандомизированная добавка к численному значению релевантности ряда документов с оценкой «Rel+», с целью сбора дополнительной поведенческой информации в Московском регионе, в дальнейшем — рандомизация была внедрена и в регионах России).

18

2 февраля 2016

Владивосток (учёт адаптированности сайта к просмотру с переносных устройств, повышение в результатах мобильной выдачи адаптированных проектов).

19

2 ноября 2016

Палех (соответствие поисковому запросу семантического вектора в трёхсотмерном пространстве с целью определения близости данного вектора к заголовкам (Title) проиндексированных документов в сети; алгоритм вычисления соответствия пары запрос-документ основан на искусственной нейронной сети; основная цель — повышение качества поиска для редких запросов и запросов, заданных на естественном языке).

20

23 марта 2017

Баден-Баден (алгоритм определения переоптимизированных текстов, ранее переоптимизированные тексты пессимизировались с помощью текстовых пост-фильтров, теперь поисковая система дополнительно встроила в основной алгоритм ряд факторов, которые ответственны за понижение документов с данными текстами в результатах выдачи).

21

22 августа 2017

Королёв (алгоритм ранжирования, который является логическим развитием «Палеха»; основная особенность подхода — выявление смысла пользовательского запроса и сопоставление его с теми интентам, которые могут быть удовлетворены на странице; в отличии от «Палеха» — для вычисления новых факторов анализируется весь текст документа, а не только заголовок окна браузера Title).

22

19 ноября 2018

Андромеда (обновление поиска, которое, формально подытоживает сотни изменений, внедренных со времени анонса алгоритма Королёв; большинство нововведений касаются отображения множества колдунщиков и сервисов Яндекса в SERP; основные изменения — улучшение «быстрых ответов», интеграции с другими сервисами поисковой системы, в том числе — Коллекции, появление значков у сайтов).

* — неофициальные названия алгоритмов, города подобраны на усмотрение автора с целью соблюдение очередности.

Схематично: устройство поиска Яндекса
Источник — yandex.ru.

Все антиспам-алгоритмы Яндекса

Параллельно с алгоритмами ранжирования развивались и появлялись новые санкции, направленные на фильтрацию обманных техник продвижения сайтов. С течением времени эволюционировали и сами взгляды представителей поисковых систем и SEO-специалистов на правила, принятые в отрасли. Составим полную таблицу действующих на текущий момент санкций в лидирующей поисковой системе рунета.

За текстовое содержимое

За ссылочную составляющую

За поведенческую информацию

1. «Переспам» — запросный фильтр, уменьшает значение релевантности документа по заданной фразе [1].

2. «Переоптимизация» — уменьшает итоговое значение релевантности всего документа. Фильтр «Переоптимизация» может быть также применён и ко всему сайту (вручную), по усмотрению антиспам-асессоров [1].

3. «Текстовый антиспам» или «Новый» — существенно дисконтирует значение релевантности документа по запросу, что приводит к понижению позиции на 50 и большее число пунктов [1].

4. «Баден-Баден» — запросозависимый фильтр Яндекса, направленный на понижение в выдаче излишне оптимизированных страниц. Оценивается весь контент документа: plain text, прочее текстовое содержимое.

5. «Ссылочный взрыв» — штрафует проекты при фиксации неестественно высокого темпа появления ссылочной массы. Доноры, участвующие во «взрыве» — также помечаются как неблагонадежные и могут подвергаться дальнейшей фильтрации.

6. «Ссылочный спам / Пессимизация» — санкций, применяемые к сайтам при манипулировании входящей ссылочной массой (ссылочные кольца, прогоны и другие).

7. «Внутренний/Внешний Непот» — исключение одной или пула ссылок из ранжирования, «Внутренний Непот» применяется при наличии избыточной (спамной) перелинковки внутри сайта [2].

8. «Минусинск» — сильное понижение сайта в выдаче по всем поисковым запросам за избыточное число и долю SEO-ссылок в ссылочном профиле [3].

9. «Накрутка ПФ» — штрафует сайт за накрутку кликовых поведенческих факторов с применением мотивированного трафика или эмуляций действий пользователей в поисковой системе. Ресурс продолжает находиться в ТОП-10 только по витальным запросам.

10. «Кликджекинг/Clickjacking» — понижает в ранжировании сайты, которые используют технологию кликджекинга (размещают на странице невидимые элементы с которыми взаимодействует пользователь не подозревая этого). С помощью данной технологии владельцы сайтов обманным путём могут получить номер телефона пользователя из социальной сети или совершить прочие действия, о которых посетитель не подозревает.

11. «Криптоджекинг/Cryptojacking» — помечает как «Сайт может быть опасен» и ниже ранжирует страницы, которые содержат скрипты, предназначенные для майнинга криптовалют с использованием вычислительных мощностей устройств посетителей проекта.

Ассоциированность сайтов в группу

За рекламную составляющую

За «взрослое» содержимое

12. «Аффилированность» — группирует проекты на странице результатов выдачи так, чтобы в зоне видимости остался только один из сайтов группы-аффилиатов, остальные — скрываются из выдачи по запросу [4].

13. «На одинаковые сниппеты» — пост-фильтр, который группирует сайты на выдаче в случае существенного пересечения текстовой информации используемой для сниппета.

14. «Назойливая реклама» — понижает в ранжировании сайты с назойливым рекламным содержимым (popunder, clickunder, pop-up и аналоги).

15. Обманная и избыточная реклама — понижает в ранжировании сайты с обманным содержимым во всплывающих окнах, уведомлениях и сайты с избыточным объемом рекламы.

16. «За обман мобильных пользователей» — снижение общего уровня трафика проектов, которые отображают для мобильных пользователей агрессивную рекламу (подписка, кликандер, скачка и т.д.) и/или используют автоматические редиректы для посетителей с мобильных устройств.

17. «За рекламу, вводящую в заблуждение» — пессимизация сайтов с контекстной рекламой, тизерами и/или CPA-офферами, которые вводят пользователя в заблуждение (по оценке алгоритма Яндекса), судя входит оформление рекламы как элементов навигации и меню, материалы не помеченные как реклама.

18. «За навязчивые оповещения» — понижение и пометка в результатах поиска Яндексе сайтов, которые вынуждают пользователя подписаться на рекламные оповещения (push). Запущен в январе 2019 года.

19. «Adult-фильтр» — исключает из зоны видимости сайт по «не взрослым» запросам. Домен фигурирует в выдаче только по запросам с явным adult-интентом или при снятии фильтрации проектов в настройках поисковой системы Яндекс. Фильтрация с помощь «Adult-фильтра» может применяться не целиком к проекту, а и к определенным разделам на сайте.

За общее качество содержимого

За направленность ресурса

За обман поисковой системы

20. «АГС» — различные версии фильтра АГС (нумерация «17», «30», «40», «—») направлены на ограничение в ранжировании и индексации сайтов, созданным не для пользователей и/или размещающих с себя избыточное число исходящих SEO-ссылок.

21. «Партнёрки» — приводит к понижению сайтов-партнёрок, которые не обладают самостоятельность ценностью для пользователя.

22. «Псевдосайты» — ранжирует ниже сайты без ценности для пользователей (по различным параметрам).

23. «Бан» — полное исключение сайта из индекса. Применяется в крайнем случае для сайтов с чрезмерным поисковым спамом, среди которого:

  • «Дорвеи»
  • «Списки поисковых запросов»
  • Сайты использующие «Клоакинг»
  • «Сайты-клоны»
  • «Псевдосайты»

За нарушение законодательства

24. Удаление из результатов поиска ссылок на сайты, которые нарушают законодательство (по решению суда), а также ссылок на копии таких сайтов (список копий, в России — предоставляет Минкомсвязи). В Российской Федерации — федеральные законы № 149 и № 156. В случае скрытия ряда доменов — поисковая система выводит оповещение об этом.

pixelplus.ru

Что такое поисковые алгоритмы?

Поисковые алгоритмы, они же алгоритмы «Яндекса», представляют собой некую математическую формулу, где запрос пользователя является неизвестным. Поисковый робот решает эту формулу: подставляет вместо неизвестного разные значения и выбирает самое подходящее.

Если упростить определение, то можно выразиться следующим образом: поисковый алгоритм – это специальная программа, которая забирает «проблему», в нашем случае поисковый запрос, и дает ее «решение», то есть показывает список сайтов с необходимой пользователю информацией.

Решая «проблему», алгоритм просматривает все ключевые слова на страницах, сортирует полученные данные и формирует нужную для пользователя поисковую выдачу. Благодаря поисковому алгоритму, роботы могут анализировать содержимое каждого ресурса. На основе полученной информации определяется положение сайта в поисковой выдаче.

Что влияет на поисковый алгоритм?

Как уже можно было заметить, поисковая выдача по одному и тому же запросу в разных поисковых системах разная. Так, алгоритм «Яндекса» значительно отличается от Google. Например, для чистоты эксперимента откроем две вкладки: одна поисковая система от «Яндекс», другая – от Google. Если ввести в строку поиска запрос «как уехать в Японию на ПМЖ», то можно увидеть, что первый сайт в выдаче «Яндекс» находится на втором месте в выдаче Google.

Алгоритмы поисковиков находятся под строгим секретом, они анализируют одни и те же параметры сайта, но каким уделяют больше внимания, а каким меньше — никому не известно. Даже СЕО-оптимизаторы задаются этим вопросом.

Параметры, с которыми работают алгоритмы

Как уже было сказано, поисковые алгоритмы «Яндекса» руководствуются определенными параметрами. В целом их можно разделить на две группы. Одни параметры отвечают за смысловое наполнение ресурса, их можно условно назвать «текстовыми». Другие – характеризуют технические характеристики (дизайн, плагины и т. д.). Условно можно обозначить их как «инженерно-функциональные». Для наглядности стоит разбить все параметры по группам и разместить в таблице.

«Текстовые»

«Инженерно-функциональные»

Язык ресурса

Возраст сайта, доменное имя, местоположение.

Популярность темы и количество текста на каждой странице.

Количество страниц и их «вес»

Соотношения ключевых слов к общему количеству текста.

Наличие стилевого решения

Количество цитат и уровень уникальности контента

Количество запросов по конкретному ключевому слову и частота обновляемой информации.

Размер шрифта и его тип

Наличие мультимедийных файлов, фреймов, флэш-модулей и мета-тегов

Число ссылок в тексте

Стиль заголовков, подзаголовков и КС

Соответствие ключевых слов разделу каталога, где зарегистрирован сайт.

Комментарии в программном коде, тип страницы, наличие дублей

Ранжирование

Эти параметры играют ключевую роль в алгоритмах ранжирования. Алгоритм ранжирования – это способ, благодаря которому можно узнать ценность каждой страницы. Проще говоря, если сайт имеет хорошие показатели по всем этим параметрам, то он будет находиться выше в поисковой выдаче.

Алгоритмы ранжирования «Яндекса» меняются практически каждый год. Основные из них названы в честь городов. Название новой поисковой концепции начинается с последней буквы названия предыдущего алгоритма. Так, поисковая система создала алгоритмы:

  • «Магадан» (2008 год).
  • «Находка» (2008 год).
  • «Арзамас» (2009 год).
  • «Снежинск» (2009 год).
  • «Конаково» (2010 год).
  • «Обнинск» (2010 год).
  • «Краснодар» (2010 год).
  • «Рейкьявик» (2011 год).
  • «Калининград» (2012 год).
  • «Дублин» (2013 год).
  • «Началово» (2014 год).
  • «Одесса» (2014 год).
  • «Амстердам» (2015 год).
  • «Минусинск» (2015 год).
  • «Киров» (2015 год).

Помимо них, в последние два года вышло еще три поисковых алгоритма «Яндекса». А также существуют особые алгоритмы АГС-17 и АГС-30, основная задача которых — искать ресурсы, которые не удовлетворяют требованиям. Проще говоря, эти алгоритмы ищут сайты с неуникальным контентом и обилием ключевых слов, а после применяют к ним штрафные санкции. А теперь о каждом алгоритме понемногу.

Алгоритмы 2008-2011 годов

За два года «Яндекс» создал четыре поисковых алгоритма, которые качественно отличались от предыдущих, начальных версий. В 2008 году впервые в поисковом ранжировании начали учитывать уникальность контента («Магадан»). Впервые была введена новая система, которая принимала во внимание наличие стоп-слов («Находка»).

В 2009 году алгоритм поиска «Яндекс» начал учитывать регион пользователя, появился новый классификатор геозависимых и геонезависимых запросов. Значительно улучшилась региональная формула подбора ответов («Арзамас»). Сильно изменилась выдача, появилось 19 новых формул регионального ранжирования и обновились критерии геонезависимого ранжирования («Снежинск», «Конаково»).

В 2010 году алгоритмы поисковых систем «Яндекс» активно разрабатывали новые формулы для геозависимых и геонезависимых запросов («Обнинск», «Краснодар»). 2011 год ознаменовался началом создания персонализированной выдачи, стали учитываться языковые предпочтения интернет-пользователей.

Поисковое ранжирование 2012-2014 годов

В 2012 году персонализация выдачи существенно изменилась: стали учитывать интересы пользователей в долгосрочной перспективе, повышалась релевантность часто посещаемых сайтов («Калининград»). В 2013 году алгоритм «Яндекса» уже умело подстраивал результаты поисковой выдачи под интересы конкретного пользователя во время сессии, учитывал кратковременные интересы («Дублин»). В 2014 году был отменен учет ссылок для коммерческих запросов при ранжировании ответов («Началово»).

«Амстердам», «Минусинск», «Киров»

В поисковой выдаче возле результата начала появляться карточка с информацией при наведении на ссылку курсора («Амстердам»). Впервые задачей алгоритма «Яндекс» стало понижение в ранжировании ресурсов, что имели много СЕО-ссылок. Наличие обширного ссылочного профиля стало основной причиной потери позиций. Алгоритм «Минусинск» «Яндекса» начал массово снимать СЕО-ссылки, немного позже учет ссылочных факторов вернули, но только в Московском регионе.

В третьем за этот год алгоритме была внедрена рандомизация релевантных запросов. Проще говоря, при выдаче запросы можно было сортировать по дате, популярности или региону («Киров»).

«Владивосток» и «Палех»

Алгоритм «Владивосток», начавший функционировать в начале 2016 года, стал учитывать адаптивность ресурсов к мобильным устройствам, повысились результаты мобильной выдачи.

Особого внимания заслуживает алгоритм «Палех», который презентовали в ноябре. Его основная суть состоит в сопоставлении смысла вопроса и страниц при помощи нейросетей – искусственного интеллекта, который моделирует работу человеческого мозга. Благодаря этому повысилась выдача по редким запросам. Изначально этот алгоритм работал исключительно с заголовками страниц, но, как говорят создатели, со временем научится «понимать» и сам текст. Работа алгоритма заключается в следующем:

  • Система учитывает статистику соответствия запроса и заголовка, тем самым повышая точность поисковой выдачи.
  • Работа с такими соответствиями получила название «семантический вектор». Такой подход к поисковому ранжированию помогает находить ответы на самые редкие запросы. Алгоритм, который научился понимать текст, может выдавать результаты в которых не будет ни единого похожего слова с запросом, но, тем не менее, они полностью соответствуют друг другу по содержанию.

Проще говоря, в «Яндексе» попытались создать «разумную» технологию, которая ищет ответы, опираясь не на ключевые слова, а на само содержание текста.

«Баден-Баден»

Новый алгоритм «Яндекса», вышедший в марте 2017 года, стал настоящим прорывом в системе поискового ранжирования. В поисковой выдаче на первое место начали выводить сайты с полезным, понятным и читабельным контентом. Основная задача этого алгоритма – предоставить пользователю не текст, соответствующий запросу, а нужную информацию.

За время работы «Баден-Баден» понизились в поисковой выдаче ресурсы с переоптимизированой и некачественной информацией. Эксперты были уверены, что упадут позиции интернет-магазинов, так как там слишком много повторяющихся слов и описаний товаров, что практически ничем не отличаются. Но разработчики алгоритма учитывали, что есть специфические темы, где повтор однокоренных слов неизбежен. Так какие же тексты попадают под санкции? Лучше это посмотреть на примере.

Текст, не соответствующий поисковому алгоритму

Раньше поисковые роботы выводили на первые позиции ресурсы, в которых были ключевые слова. Но тексты на таких сайтах зачастую выглядят как набор запросов, разбавленных «водой» некачественных текстов. И приведенный ниже пример — тому доказательство:

«Ежегодно Nike выпускает бесчисленное множество товаров для занятий спортом. Кроссовки, кеды, бутсы, костюм Nike, футболка Nike, шорты, спортивный костюм Nike, штаны, спортивные штаны Nike, футбольные мячи – эти и другие товары можно найти в любом фирменном магазине. Женские Nike, мужские и детские коллекции передают главную тему марки. Одежда Nike уникальна тем, что каждый товар передает настроение бренда».

Такие тексты не несут пользы, это не более чем шкатулки с ключевыми запросами. Вот с ними и борется новый алгоритм. Контент с низким качеством непременно потеряет свои позиции. Существуют три критерия низкокачественного контента:

  • Отсутствие логики в тексте.
  • Большое количество ключевых слов.
  • Присутствие в тексте неестественных фраз, которые появились из-за прямых вхождений ключевых слов.

Естественно, СЕО-оптимизацию никто не отменял, базовые принципы поисковых систем остаются прежними. Вот только подход, при котором на 1000 знаков приходится 15-20 ключевых запросов, уже давно устарел. Алгоритм «Баден-Баден» акцентирует внимание на качестве контента.

fb.ru

«Королев» — это не Минусинск, не Баден-Баден. Это не карательный фильтр. Он, кстати, не является надстройкой — является частью основного алгоритма Яндекса.

«Королев» работает на основе самообучаемой нейронной сети и затрагивает довольно редкие многословные запросы, в первую очередь информационные, которые направлены на уточнение смысла — низкочастотные (НЧ) и микроНЧ, в том числе голосовой поиск, разные естественные варианты запросов, типа «фильм, где мужик в разных ботинках».

Создан этот алгоритм был с целью улучшить качество выдачи по таким запросам, по аналогу с RankBrain Гугла, который давно с такой задачей хорошо справляется, да и сейчас, по первым замерам, работает по таким запросам лучше Яндекса.

До этого был и есть алгоритм «Палех», который уже начал искать по смыслу, но делал это в реальном времени и сопоставлял только смысл запроса и заголовка — Title страницы.

«Королев» анализирует не только Title, но и всю страницу в целом, показывает в выдачу даже те страницы, где нет упоминания слов из запроса, но по смыслу страница подходит. При этом он определяет суть страницы заранее, на этапе индексирования — в результате скорость и количество обрабатываемых страниц мощно увеличились.

 
Новый алгоритм Яндекса - Королев

 
Про «треть» тут может быть преувеличено — реальной доли запросов, которые затронет «Королев», пока еще никто не измерял.

 
Например, Сайтклиник сделали хорошую статью, в которой видно на примерах, что «Королев» сейчас срабатывает далеко не во всех случаях, где он по идее должен срабатывать.

 

Как это все затронет SEO и сайты?

 
В общем-то, никто пока не заметил каких-то особых изменений в трафике на сайты, или по минимуму.

Да и алгоритм выкатывался несколько недель до шумного анонса 22 августа 2017 года и постепенно дорабатывается после. Поэтому если у вас вдруг сильно упал трафик или позиции именно в момент анонса «Королева» – это точно связано не с ним, а с каким-то другим фильтром.

Пока фильтр затрагивает в основном информационные запросы и большей частью очень редкие.

В выдачу по таким запросам «Королев» чаще всего пропихивает крупные сайты — Википедию, большие порталы-киносайты и пр.

 
Дмитрий Севальнев:

Новый алгоритм Яндекса - Королев. Мнение Дмитрия Севальнева (Пиксель Плюс)

 
Алексей Чекушин:

Вопрос. Королёв — это только про информационные запросы?

Нет, Королёв затрагивает все запросы. Вопрос в степени влияния. Яндекс утверждает, что на информационных запросах его влияние заметнее. Мои наблюдения это подтверждают. Предполагаю, что это связано со средним объемом текста в документах по коммерческим и информационным запросам. По последним он в разы больше. Это дает возможность алгоритму работать лучше.

 
То есть у информационников часть трафика будет отжата, да.

Но, все-таки, пока по всеобщему ощущению, это будет малозначительная часть трафика, потому что:

а) все-таки запросы с уточнением смысла довольно редки

б) все равно сейчас по многим запросам, где должен действовать «Королев», в ТОПе находятся те страницы, где есть упоминание нужного запроса. То есть наличие на странице слов из запроса пока имеет большую роль, чем соответствие общему смыслу.

в) чтобы «Королев» сработал, нужны определенные условия, например, как отловили эксперты из Сайтклиник, у слова должен быть только один понятный поисковику смысл.

Например, я глянула тот запрос, который просто так привела выше — «фильм, где мужик в разных ботинках» и вижу такую выдачу:

Выдача в Яндексе по запросу фильм, где мужик в разных ботинках (алгоритм Королев Яндекса)

На всей первой странице только 1 вариант фильма, подходящий вариант, из Википедии. Остальные страницы — только те, где встречаются слова из запроса, больше ни одного четкого ответа на вопрос.

 
Коммерческих запросов «Королев» пока почти не коснется. Ведь мало кто спрашивает в таких тематиках что-то по смыслу, обходными путями. Чаще всего коммерческий запрос — это точность плюс топоним, слова «купить», «цена» и другие коммерческие маркеры.

 

В общем, что касается усложнения жизни сеошникам, как сказал Сергей Петренко, «Выдыхайте, бобры».

 
Но то, во что он разовьется, может затронуть сайты более ощутимо, в будущем. В том числе коммерческие сайты.

 

Что делать?

И для профилактики, и для улучшения текущей ситуации на вашем сайте, учитывая развитие этой темы, стоит срочно начать менять некоторые моменты, если у вас с ними все запущено.


Бесплатные SEO курсы от Анны Ященко — 20 PDF-уроков — Хорошие, для новичков, но и не только, достаточно глубокие, актуальные. Хотите научиться самостоятельному бесплатному продвижению сайтов? Пожалуйста.


  
  

Например, стоит начать давать ТЗ копирайтерам по новому принципу. Или менять подход к написанию сатей — к примеру, наговаривать на диктофон самые интересные моменты копирайтеру, писать лучшие статьи на самые важные, целевые запросы самостоятельно.

Уже сейчас Яндекс жестко борется с SEO-текстами. Многим это пока еще не понятно, потому что на самом деле не так много владельцев сайтов и оптимизаторов отслеживают сейчас релевантные страницы по запросам, позиции и фильтры переоптимизации.

Я во время аудитов даже очень крупных и продвинутых порталов по-прежнему вижу классические SEO-тексты в 80-90% случаев. Которые обычно невозможно читать. И за которые довольно сильно сейчас уже наказывают Баден-Баден, фильтры переоптимизации, другие фильтры переспама. Но для многих это все по-прежнему пока остается не очевидным.

А также мало кто использует в текстах даже очень важные синонимы, данные из Яндекс Вордстата, подсказки, «с этим еще ищут» и т.д.

Стоит активно и правильно использовать на сайте микроразметку.

Еще одна очень распространенная ошибка — плохие Title, Meta Description — и как результат неэффективные, сниппеты с низким CTR.

По моим последним ежедневным анализам, Яндекс редко сейчас берет Meta Description в описание сниппета. Но тоже берет. Гугл это делает очень часто, особенно, если в Мета Дескрипшн употреблены слова из запроса, по которому смотрим сниппет. Делайте Тайтлы и Мета Дескрипшн интересными, используйте элементы продающего копирайтинга, немного можно заглавные буквы, скобки, цифры, факты, самые интересные моменты из вашего УТП, самые интригующие моменты из статьи. Все должно быть живо, динамично. Выделяйтесь в выдаче среди конкурентов.

Тем же Топвизором удобно смотреть свои сниппеты и сниппеты конкурентов. Смотрим их в разделе «Позиции» при блочном отображении.

Но (!) сначала в разделе «Настройки» надо задать «Собирать сниппеты» вот тут:

Как снимать сниппеты в сервисе Топвизор

Потом в разделе «Позиции» снять позиции. И переключить в «блочный» режим:

Как снимать сниппеты в сервисе Топвизор

И сразу видно, что и как — какая релевантная, как выглядит сниппет, откуда он берется, какие слова подправить и так далее.

 


«Королев» для меня — еще одно (важное) напоминание перерабатывать SEO-тексты в осмысленные и интересные, четкие, яркие, не водянистые, полезные тексты, использовать LSI, расширять и лучше прорабатывать семантику.

 
В общем, больше упора на сбор большого семантического ядра, на написание качественных полезных текстов с LSI, раскрывающих всю суть вопроса, и помогающих пользователям исполнить свой интент (намерение) на странице.

Больше внимания поведенческим факторам и в частности сниппетам как одному из самых простых элементов ПФ, который можно быстро изменить.

Я кстати, хочу еще сказать, что по-прежнему очень недооценены блоги (контентные разделы) на корпоративных сайтах и интернет-магазинах и, в частности, качественные статьи на этих сайтах. Они не только привлекают информационный трафик и могут конвертировать посетителей статей в покупателей, не только увеличивают объем тематического контента на сайте, но и могут отлично помогать в прокачивании хостовых, ссылочных факторов сайта. Я уже писала про это в статье «Самый большой секрет эффективного продвижения сайтов».

 

Другие статьи про «Королев»:

Я много моментов тут еще не расписывала, про них стоит почитать в других статьях. Я выбрала тут только самые лучшие, действительно стоящие:

«Алгоритм Яндекса «Королев» от Дмитрия Севальнева (Пиксель Плюс)

«Королёв»: действие алгоритма на практических примерах»

«Яндекс «Королев». Чего ждать от нового алгоритма Яндекса и как к нему подстроиться» от Елены Камской (Оптимизаторши)

«Новый поиск Яндекса: интервью с создателями»

«Королёв vs RankBrain»

«На что повлияют нейронные сети? Или, Как бедным оптимизаторам помешает жить новый алгоритм «Яндекса» от Сергея Петренко

«Алгоритм «Королёв» — очередная порка сеошников откладывается» от Сергея Людкевича

«Алексей Чекушин: Королёв затрагивает все типы запросов. Большое интервью об актуальном SEO»

 
Мнения разных экспертов:

«Поехали! К чему приведет космическая премьера Яндекса?» — опрос известных SEO-экспертов на seonews.ru

«Мнения: «Королёв» — это так тонко, что даже толсто»

«В «Яндексе» запустили новый поисковый алгоритм «Королёв» – мнения экспертов»

 
Дополнительные официальные источники:

Про новый алгоритм «Королев» в Яндекс Блоге

Описание алгоритма «Королёв» на Хабрахабре

Анонс и описание алгоритма «Палех» на Хабрахабре

 

Некоторые отрывки из мнений по ссылкам выше:

 

Дмитрий Шахов

«Королев» пройдет мимо поисковой оптимизации. По крайней мере, на данном этапе. Перед поиском стоит задача дать ответы по запросам, по которым нет документов с вхождениями. Поиск эту задачу решает. Hummingbird в Google, «Палех» и «Королев» в Яндексе. Запросы, по которым нет документов, не входят в зону интереса поисковой оптимизации. Именно поэтому там и нет документов.

 

Артур Латыпов

Многие ждали, что вскоре после «Палеха» появится алгоритм, который будет работать аналогично, но не по заголовкам, а по контенту. Пока не заметили скачков трафика на наблюдаемых сайтах, будем наблюдать внимательней и смотреть на развитие алгоритма в будущем. Интересно, раньше для улучшения ранжирования по большому количеству запросов, в том числе смежных, готовили SEO-тексты, они были у кого-то лучше, у кого-то хуже, кто-то их называл по-другому, но смысл от этого не менялся. Теперь за SEO тексты наказывают, а поиск будет ранжировать документы по смыслу.
Ожидаем, что в работе оптимизаторы будут больше использовать LSI при подготовке текстовой оптимизации.

Соответственно, будут развиваться SEO-сервисы. Напомню, что подготовка списка SEO-слов, терминов в тематике, смежных запросов для подготовки контента и оптимизации, используется специалистами уже несколько лет. Поэтому серьезных изменений в механике не произойдет, по крайней мере пока.

В итоге, больше внимания уделяем:

• качеству контента;
• интенту запроса;
• мониторингу выдачи.

И, конечно, всегда интересно после запуска нового алгоритма от Яндекса анализировать, что изменилось, и наблюдать, что будет дальше.

 

Дмитрий Севальнев

Фактически, с внедрением ряда новых факторов, которые учитывают:

смысловое соответствия пары запрос-документ (по всему тексту документа, а не только по Title, как ранее в алгоритме «Палех»),
качество ответа документа на схожие по смыслу поисковые запросы, –

не будет глобальных изменений для SEO-индустрии. Наиболее значимые изменения коснутся «длинного хвоста» запросов, под которые целенаправленно SEO-специалисты мало работают. Их много, они редкие и часто обеспечивают единичные заходы на сайт.

Может быть увеличена значимость ряда факторов, которые и так прорабатываются специалистами, с того момента как LSI стал «модной темой».

 

Олег Шестаков, CTO & Founder в Rush Analytics Russia

Анонс алгоритма «Королев» был, наверное, самым масштабным за все время с точки зрения шоу. С точки зрения технологий нельзя сказать, что это какой-то новый технологический прорыв. В чем смысл инновации: теперь нейронные сети Яндекса оценивают соответствие запрос-документ не просто с точки зрения вхождения запроса и его вариаций (леммы, частей запроса и т.д.) в текст документа, но и с точки зрения смысла запроса. Нейронная сеть, обученная на больших данных, теперь умеет определять релевантность документа запросу, даже если в документе нет вхождения слов запроса. На самом деле – это не новая технология – она же использовалась в алгоритме «Палех», правда он учитывал лишь заголовки документов. Т.е. настоящая инновация здесь в том, что инженеры Яндекса сумели масштабировать очень ресурсоемкий алгоритм на несколько порядков – теперь алгоритм может оценивать сотни тысяч документов, а не 150 строк текста как раньше.

Как алгоритм повлияет на рынок SEO?

— Глобально – никак. Это всего лишь часть алгоритма, а большинство других факторов как работали, так и будут работать. Данный алгоритм сильнее всего должен затронуть НЧ-запросы и часть СЧ-запросов.

— Придется уделять больше внимания качеству текстов. Теперь, чтобы вывести страницу в ТОП, текст страницы должен содержать как можно больше слов-синонимов и связанных с запросом слов, чтобы пройти по факторам нового алгоритма, т.к. он теперь учитывает именно такие слова, а не просто «прямые вхождения». Здесь нет никакой магии – нейросеть обучается учителями-асессорами и все равно работает с текстами реальных сайтов, находя связанные по смыслу слова. Значит можно провести похожий анализ и сделать экстракцию этих слова их документов ТОПа. Грамотные SEO-специалисты начали это делать уже несколько лет назад. Если простыми словами – тот же LSI, только в профиль.

— Рынок дешевого копирайтинга начнет схлопываться, и это очень хорошо. Задание на написание текста в формате «3 прямых вхождения, 4 разбавленных и длина 2500 символов» будет порождать тексты, которые будут слабо ранжироваться.

Теперь нужны тексты-истории. Мы как SEO-специалисты должны рассказать историю про продукт клиента во всех подробностях, описав продукт со всех сторон – при таком подходе будет физически сложно упустить важные тематичные запросу слова. Заметьте, что вебмастера, зарабатывающие на статейных сайтах, уже очень давно пишут тексты-истории даже о юристах по алиментам, с отличной версткой, раскрытием темы и points of interest. Что в результате? У них куча трафика и ТОПы, плюс тотальная победа над сухими сайтами юридических фирм.

Производство контента станет несколько дороже и профессиональнее. SEO-компании либо перестанут писать SEO-бред и построят взрослые контент-редакции внутри, или их клиенты потеряют позиции в поиске. Яндекса вчера толсто на это намекнул.

 

Александр Алаев

«Королев» со всем не про SEO. Цель SEO – работа с запросами, которые спрашивают много раз и смысл их понятен, а релевантных ответов тысячи. Задача поисковика в коммерческом сегменте – найти лучших кандидатов по коммерческим критериям, а не искать смыслы. Именно поэтому коммерческая выдача не изменится, по крайней мере сколько-либо заметно.

А вот владельцам информационных ресурсов еще раз стоит обратить внимание на качество контента, ориентировать свои публикации не под поисковые запросы, а под интересы пользователей, писать человеческим простым языком.

 

 

seoandme.ru


You May Also Like

About the Author: admind

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

Этот сайт использует Akismet для борьбы со спамом. Узнайте как обрабатываются ваши данные комментариев.

Adblock
detector