Парсинг
Ручной способ
- Каждую смысловую группу лучше парсить отдельно, чтобы не запутаться;
- Копируйте все результаты от 1 показа и больше. Типичная ситуация: там, где Wordstat показывает 1, на самом деле 100-200 показов.
Автоматический способ
- Сбор информации напрямую с популярных источников;
- Выбор региона и глубины поиска.
- Оценка фраз по стоимости продвижения, популярности, конкуренции, трафику и другим параметрам;
- Экспресс-анализ содержимого сайта на соответствие СЯ + рекомендации по внутренней перелинковке;
- Экспорт запросов в Excel и CSV;
- Удобное табличное представление данных со всплывающими редакторами.
Key Collector
СловоЕБ
- Проверяет частоту запросов только по Wordstat, а КК также по Yandex.Direct, Google.Adwords, LiveInternet, Rambler.Adstat, APIShop.com;
- Оценивает конкурентность запросов для Яндекс и Google, в то время как в КК 4 формулы оценки KEI, которые можно менять вручную;
- Нет поиска конкурентов;
- Не сохраняет проекты в аккаунте;
- Экспортирует результаты только в csv.
MOAB Tools
Очистка СЯ от «мусора»
- Ключевики, которые содержат ненужные слова
- Повторы слов
- Стоп-слова (информационные запросы, города, в которых не действует предложение, «бесплатно», «дешево», субъективные определения и т.д.)
- Группы слов
- Запросы с нулевой частотностью
На какие вопросы машинный интеллект не дает ответы
Метод перемножения
Шаг 1: расширения масок
- Тип транзакции (заказать, купить, сделать);
- Кто оказывает услугу (подрядчик, фирма);
- Качество (долговечный, красивый);
- Цена (стоимость, расценки, прайс);
- Гео;
- Сервис (гарантия, срок, быстро, предоплата);
- Цель (родителям, детям, для себя).
Шаг 2: перемножение
Чек-лист по оптимизации семантического ядра в Яндекс.Директ
- Запросы, которые не соответствуют продукту (например, если вы продаете промышленные светильники, удаляете всё, что связано со светильниками для дома);
- Точные дубли;
- Стоп-слова;
- Фразы с нулевой частотностью;
- «Холодные» запросы;
- Неочевидные минус-слова.
yagla.ru
Анализ видимости сайта для увеличения посещаемости
Итак, сервис Advodka (аббревиатура от adv over direct keywords analytics) представляет из себя инструмент для анализа ключевых фраз и конкурентов (принадлежащих им сайтов) в органической выдаче (серпе) и в блоках контекстной рекламы.
Оценивается в том числе и видимость сайтов (доменов), т.е. их наличие в Топ 20 по всем возможным поисковым запросам (с ненулевым трафиком по ним, т.е. «пустышки» сюда не входят), а также по приводимым данным (цене попадания в размещение контекста или числу документов, участвующих в ранжировании) .
Причем видимость сайта пробить можно не только для своего домена, но для доменов всех ваших конкурентов, и даже сравнить позиции по общим для вас с ними запросам или поискать у конкурентов что-то такое, что вы упустили при работе над своим семантическим ядром. В Мегаиндексе, например, тоже можно видимость сайта оценить, но в Advodka это все выводится на совсем другой уровень.
Например, Мегаиндекс мне выдает около двух тысяч запросов, по которым мой блог виден в Яндексе и Гугле, а в Advodka этот список гораздо шире:
Для получения подобного отчета вам нужно будет на вкладке ввести Урл (или доменное имя) интересующего вас сайта. Для моего блога нашлось более десяти тысяч запросов по Яндексу и еще больше по Гуглу, где https://ktonanovenkogo.ru попадает в Топ 20. Причем это не просто цифры. По ним можно кликнуть мышью и просмотреть все эти многие тысячи запросов.
Зеленым или красным цветом в верхнем регистре (с плюсом или минусом) приводится рост или спад данного числа за последний месяц, что помогает оценить качественный рост видимости сайта. Чуть ниже также приведена месячная статистика по пропавшим и появившимся запросам. Правда тут надо понимать, что Advodka не учитывает «пустышки» (запросы с нулевой частотностью), однако, некоторые ключи в этот месяц могут не спрашивать ни разу, но зато спросить в следующий месяц, поэтому и будут существенными цифры в полях «Появилось» и «Пропало».
Ну, и также можно будет оценить рост или спад позиций по цифрам в полях «Выросло» и «Просело». При оценке доменов конкурентов еще будут интересны цифры его месячной посещаемости и другие пузомерки типа Тиц, Пр, а также наличия сайта в популярных каталогах (Дмоз и ЯК).
Справа будет приведена визаулизация видимости сайта и распределение ее между Яндексом и Гуглом. Там тоже все кликабельно.
Например, можно кликнуть по области пересечения запросов попавших в Топ 20 и в Яндексе, и в Гугле, чтобы попробовать проанализировать страницы, оптимизированные под эти запросы, и перенести эти наработки и на другие страницы, чтобы максимализировать видимость вашего сайта.

При желании, данные любого отчета вы сможете загрузить себе на компьютер в виде CSV файла для дальнейшего анализа (ссылка «Экспорт в CSV» в правом верхнем углу). Правда, эта возможность доступна только на платном аккаунте (стоимость составляет чуть менее тысячи рублей за месяц пользования сервисом).
В данном отчете по видимости сайта (списке ключевых слов, по которым ваш или чужой сайт занимает позиции в Топ 20) кроме позиций приведена еще и частотность запроса, процент трафика по нему (оценочное значение), а также стоимости клика в спецразмещении и гарантии. Последняя информация очень , которую нужно обязательно учитывать при составлении семантического ядра.
Вообще, анализ видимости сайта лично я использую не только для оценки своего сайта. Это очень удобный инструмент для обогащения семантического ядра. Суть метода следующая. Если я случайно (или ища целенаправленно) встречаю сайт, который близок к моему и очевидно успешен, то я не премину посмотреть на каких запросах он «поднялся». Для этого достаточно просто добавить этот домен в Advodka и посмотреть список запросов, по которым сайт-конкурент вылез в Топ 20.
В первую очередь обращать внимание стоит на частотные, но не сильноконкурентные запросы. Их будет немного, но зато вы на них сможете очень быстро и легко подняться. Чем больше конкурентов вы проанализируете, тем полнее и разнообразнее будет ваша семантика, что само по себе уже будет отмечено поисковыми системами, как положительный аспект.
Однако, и видимость своего собственного сайта стоит подвергать всестороннему анализу. Выгрузите список CSV с ключевыми словами, по которому ваш домен сидит в Топ 20, и поищите запросы, которые в Топ 10 еще не попали, но являются «вкусными» (т.е. имеют приличную частотность и относительно низкую конкуренцию).
Поднять их в Топ зачастую можно будет простым добавлением внутренней ссылки с нужным анкором на ту статью, которую поисковая система посчитала релевантной (она указана в самом правом столбце списка). На крайняк купите на нее одну-две ссылки с нужным анкором и точно попадете в Топ. И это будет тем выгоднее, чем выше лид (это маржа с одной продажи) в вашей тематике. Например, в недвижимости имеет смысл бороться даже за запросы с единичной частотой запроса в месяц, ибо даже одна продажа окупит все мыслимые расходы.
Создание эффективных кампаний в Директе и Адвордсе
Что примечательно, отчет будет предоставлен не только по органической выдаче, но и по контекстной рекламе (Яндекс Директ и Гугл Адвордс). Я на свой блог рекламу не покупаю, поэтому у меня не заполнен данный блок отчета, но для коммерческого сайта эта информация будет весьма актуальной.
Тут вы найдете запросы, по которым показывается реклама этих сайтов на первых двух страницах выдачи Яндекса или Гугла. Причем все эти цифры кликабельны. За ними кроется реальный список ключевых слов, по которым данный сайт показывает свои объявления в Директе или Адвордсе.
Можно будет оценить частотность этих запросов, привлекаемый по ним трафик, стоимость клика (конкурентность), а также увидеть заголовок и текст объявления (что может быть полезно при составлении своих объявлений).
Если вы создаете или планируете создать свои рекламные кампании в Яндекс Директе или Гугл Адвордсе, то одной из основных проблем для вас опять же станет сбор семантики (ключевых запросов, по которым будут показываться ваши объявления) и составление наиболее эффективных объявлений под них.
Если вы новичок в этом деле или никогда не работали с данной тематикой, то лучшим вариантом будет подглядеть все это у ваших конкурентов, которых можно будет запросто найти с помощью сервиса Advodka.
Для этого просто введите свой домен для анализа (если еще контекстном не занимались, то введите домен уже известного вам конкурента), после чего кликните в строке «Конкурентов» по нужной цифре (в зависимости от системы рекламы и региона, где вы планируете осуществлять показ объявлений).
Откроется список ваших потенциальных конкурентов, данные по которым вы можете изучить в приведенной таблице, либо во всех подробностях изучить ключевые слова и соответствующие им объявления, просто кликнув по адресу их сайта (в открывшемся окне нужно будет кликнуть по цифре в строке «Запросов Топ 20» в блоке «Контекстная реклама»).
Сбор семантики в Advodka путем ввода начального запроса
В обоих случаях (подбора семядра для SEO и контекстной рекламы) мы «плясали» от домена. Однако, Advodka позволяет начать сбор семантики и с введения запроса.
По данному запросу вы сможете получить массу исчерпывающей информации:
- В области «Анализ» вы узнаете его частотность в Яндексе или Гугле (для двух регионов — Москва и Питер), конкурентность (число результатов в выдаче), а также стоимость попадания в спецразмещение и гарантированные показы.
- Чуть правее будут приведены данные, схожие по свой структуре с теми, что предоставляет Вордстат при вводе в него запроса. Только здесь кроме частотности запроса (образованного путем добавления слов к исходному свовосочетанию) будет указана и его конкурентность (в виде числа результатов поиска и стоимости клика в спецразмещении). Данный список можно выкачать в виде CSV файла.
- В области «Контекст по запросу» вы увидите список доменов, которые рекламируются в Яндексе или Гугле по указанной вами ключевой фразе (на первых двух страницах выдачи). Для них будет указано общее число запросов, по которым они рекламируются, и тот трафик, что они ориентировочно с них получают.
А также будут приведены примеры размещаемых ими объявлений. По каждому из этих доменов (фактически ваших конкурентов) можно будет получить подробнейшую информацию, просто кликнув по их названию.
- В области «С данным запросом в контексте также покупают» приведен список ключевых слов, которые также используют ваши конкуренты. Обычно он довольно большой и открывается полностью по приведенной ниже ссылке. Его еще можно будет выкачать в виде CSV файла. В принципе, при должном подходе и удаче тут можно надергать много идей для расширения семантики своего сайта.
- Дальше следуют первые 20 результатов органического поиска по данному запросу, где можно будет оценить все имеющиеся там сайты по приведенным в сводной таблице данным (наличие в каталогах, пузомерки, трафик, число запросов, по которым он виден в поиске и т.п.). По этим данным, кстати, тоже можно сделать массу выводов. Например, если все сайты в Топе находятся в ЯК, то ваш сайт, не находящийся в этом каталоге, будет априори им проигрывать. Ну и, конечно же, при клике по названию сайта вы сможете изучить всю его подноготную.
- В последней области приведены запросы, по которым целевые страницы сайтов из Топ 20 по данному запросу так же видны в выдаче Яндекса или Гугла. Фактически это вам подсказка, какие из запросов можно совмещать (с заданным вами) на одной странице (лендинге — что это такое). Это, на самом деле, не так очевидно, как кажется.
Ведь работа с семантикой заключается не только в подборе всех возможных ключевых слов, но и умелое их объединение и оптимизация под них целевых страниц. Иногда ответ на вопрос о допустимости совмещения на одном лендинге нескольких запросов не является тривиальным, и лучшим вариантом тут будет изучение конкурентов, что нам и позволяет сделать Advodka.
Сравнение доменов в Advodka.ru и поиск новой семантики
На второй вкладке сервиса Advodka нам предлагают инструмент для сравнения сайтов (доменов). Для сравнения можно ввести через запятую до пяти доменов и нажать на кнопку «Сравнить». На открывшейся странице вам предлагается настроить несколько дополнительных фильтров:
Во-первых, какие-то из доменов вы сможете временно исключить из сравнения. Во-вторых, вы можете проводить сравнение по органической выдаче, либо по контекстной рекламе. В-третьих, в сравнении могут участвовать разные запросы:
- Все
- Общие — по ним все сравниваемые сайты находятся в Топ 20
- Уникальные — по ним в Топ 20 находится только один сайт
Ну, и также вам предоставляется возможность выбрать поисковую систему, для которой будет проводится сравнение, и выбрать регион. Вообще Advodka пока работает только с двумя самыми массовыми из них (Москва и Питер), но в будущем должны быть добавлены и другие. После настройки фильтров смело жмите на кнопку «Исследовать».
Лично мне этот инструмент интересен прежде всего поиском таких запросов, которые я упустил при составлении семантического ядра, но их не упустили мои конкуренты. Поэтому в фильтрах среди конкурентов я ищу «уникальные запросы», которые у меня не встречаются. Тут же можно будет оценить перспективность продвижения по ним, взглянув на их частотность и конкурентность (число результатов в выдаче и стоимость клика в контекстной рекламе).
Хотя, можно провести сравнение и по общим для всех конкурентов запросам, чтобы посмотреть кто в этом плане оказался успешнее и, возможно, что-то перенять у конкурентов в плане внешней и внутренней оптимизации.
Рейтинг популярных доменов (сайтов) рунета от Advodka
На последней вкладке «Рейтинг доменов» вам предоставляется возможность сформировать и изучить рейтинг самых посещаемых сайтов по данным Яндекса или Гугла, а также для одного из двух регионов — Питера или Москвы.
По умолчанию результаты (миллион доменов) отсортированы по показателям месячного трафика с органической выдачи. Но можно настроить сортировку и по видимости сайта (числу запросов в Топе), а также по параметрам характеризующие кампании в контекстной рекламе. Мой блог https://ktonanovenkogo.ru при сортировке по умолчанию занимает почетное 165 место на второй странице рейтинга.
По каждому из представленных в рейтинге Advodka домену можно получить информацию из сводной таблицы (как по органической выдаче, так и по пузомеркам и данных контекстных кампаний), либо кликнуть по его названию и перейти к подробному изучению всей подноготной заинтересовавшего вас сайта.
Вообще, идея рейтинга очень хорошая, ибо всегда полезно поизучать лидеров рынка. Но вот я бы еще добавил сюда возможность фильтрации по тематике, которую можно хотя бы частично вытащить из данных Яндекс Каталога и Дмоза. ИМХО.
ktonanovenkogo.ru
Можно сказать, что сбор семантического ядра существенно влияет на всё дальнейшее SEO-продвижение сайта. Ведь семантическое ядро — это набор ключевых слов, по которым будет продвигаться сайт — а значит, создаваться его контент и структура. Поэтому к сбору семантики нужно подойти со всей серьёзностью. Рассмотрим основные этапы сбора ключевых слов для продвижения.
1. Сбор основных запросов
Допустим, мы хотим сделать интернет-магазин по продаже попугаев и приступили к сбору семантического ядра. Для начала нужно собрать основные ключи, или по-другому, маски, от которых мы будем затем отталкиваться. Маска представляет собой уникальную ключевую фразу, которая входит в состав других ключей нашего семантического ядра. В нашем случае масками будут сочетания типа “купить попугая”, “магазин попугаев”, “волнистый попугайчик” и т.д.
Возникает вопросы — откуда брать маски. Ответ простой — мозговой штурм, анализ сайтов конкурентов, просмотр их разделов (маски могут как раз входить в названия разделов и рубрик).
После того, как маски собраны, поочерёдно вбиваем их в Вордстат Яндекса.
В левой колонке мы видим список всевозможных вариантов, которые содержат наш ключ-маску. Копируем нужные нам результаты (например, ключ “купить попугая на авито” будет нам неинтересен — человек целенаправленно ищет объявление на Авито и наш ресурс обойдёт стороной).
Во время сбора ключей следует обратить внимание на правую колонку Вордстата — она позволяет расширить маски и получить ещё больше ключевых слов. На скриншоте мы видим маски “попугай клетка”, “попугай жако”, “попугай ара” и т.д. — все они пригодятся для вашего интернет-магазина. Если, конечно, мы планируем продавать эти виды попугаев.
Также Вордстат отображает количество показов — это сколько раз пользователи искали данное словосочетание за последний месяц. Но эти цифры не совсем корректные — они включают в себя частотность по всем запросам, которые содержат данную маску. Чтобы оценить точное количество запросов по данной фразе, нужно использовать оператор “!” — и тогда количество поисков “!купить !попугая” составит всего 285 в месяц вместо 10 209 в первоначальном случае.
Рекомендуется брать фразы с частотностью “!” от 20-30 и более.
Вордстат выдаёт множество словосочетаний, и такой поиск может занять длительное время. Поэтому советуем автоматизировать процесс сбора и воспользоваться программой KeyCollector. С её помощью можно быстро собрать семантическое ядро с нужными параметрами.
Во время сбора ключевых фраз желательно придерживаться следующих правил:
- избегать слишком общих словосочетаний — например, продвижение цветочного магазина по фразе “цветы” может оказаться слишком дорогим и бесполезным. А вот конкретный ключ “купить цветы в москве” — то, что нужно!
- использовать целевые словосочетания — если вы продаёте велосипеды, то нелогично продвигаться по сочетаниям “ремонт велосипеда” или “изобретатель велосипеда”. Вам нужны фразы, связанные с продажей велосипедов.
- отбрасывать ключи с ошибками — например, ключ “ремонт машина Тольятти” слишком неестественен, пользователи так не пишут.
2. Как практикуют SEO-продвижение сайта конкуренты?
Чтобы расширить семантическое ядро для SEO-продвижения сайта, полезно будет подсмотреть, по каким словосочетаниям продвигаются конкуренты. Сделать это можно с помощью платного сервиса Spywords или бесплатного Букварикс.
Нужно домен конкурента, найденный в поисковой выдаче по нужному ключу.
3. Чистка полученных запросов и группировка
После всех манипуляций смотрим полученное семантическое ядро, вычищаем нерелевантные запросы, не относящиеся к теме нашего проекта и низкочастотные с “!” менее 20-30.Далее необходимо сгруппировать запросы для разделения их по страницам — здесь уже будет формироваться структура сайта.
На одной странице желательно использовать не более 3-5 ключевых слов схожей тематики — например, “ремонт бытовой техники”, “ремонт бытовой техники в Москве”, “цены на ремонт бытовой техники”.
Для группировки можно использовать сервис http://kg.ppc-panel.ru/
После того, как вы наполните свой ресурс статьями и они проиндексируются, нужно проводить работу по продвижению ключей в ТОП Яндекса. Доверьте эту работу профессионалам и оставляйте заявку на быстрый вывод вашего проекта в ТОП с помощью технологии SEOaccelerator.
seoaccelerator.ru
Rush Analytics – онлайн-сервис для создания семантического ядра
Позволяет автоматизировать все рутинные процессы при сборе семантики: от подбора ключей до кластеризации.
Плюсы:
- Не требуется установка софта.
- Понятный и простой интерфейс.
- Наличие руководств по использованию сервиса и подсказок на каждом этапе.
- В отчетах о кластеризации есть много полезных данных, которые можно использовать для создания контента.
- Можно расширить семантическое ядро с помощью инструмента «Поисковые подсказки».
Минусы:
Из минусов можно отметить, что это полностью платный сервис. Только при регистрации вам начисляется бонус в 200 рублей. Если у вас большой объем работ – вам это обойдется недешево. К примеру, кластеризация одного ключевого запроса стоит 50 копеек.
Сбор ключевых слов
После простой регистрации будет доступно 4 инструмента для работы с ключевыми словами: «Wordstat», «Сбор подсказок», «Кластеризация» и «Проверка ключевых слов».
Теперь можно приступить к сбору ключевиков, для этого необходимо создать новый проект:
В открывшейся вкладке указываем название проекта и регион:
Следующий шаг – это Настройки сбора. Здесь нужно выбрать, каким способом будут собраны слова:
-
Сбор ключевых слов из левой колонки Wordstat – сбор ключевых слов из левой колонки сервиса wordstat.yandex.ru.
-
Сбор частотности (популярности ключевых слов) – сбор всех видов частотностей: Ключ (базовая частота – все словосочетания, куда входят данные слова), «Ключ» (частота именно по интересуемому слову без «хвостов»), «!Ключ» (частота точного вхождения фразы именно в таком порядке и в таких склонениях/спряжениях).
Также есть возможность не собирать частотности ниже заданного предела.
Для работы мы выберем первый вариант: сбор ключевых слов из левой колонки Wordstat.
Третий шаг – Ключевые слова и цена. Указываем базовые ключевые слова сайта либо списком, либо загружаем файл.
Например, у нас сайт про аренду спецтехники. Вписываем главные ключи «аренда спецтехники», «аренда крана», «услуги крана». Этого будет достаточно для сбора семантики.
Также указываем стоп-слова. Они помогут отфильтровать ваш список и сэкономить время и средства. Есть удобная функция «Стоп-слова по тематикам».
Для нашего сайта добавим стоп-слова «договор», «работа».
Через некоторое время наш проект будет готов:
Теперь можно скачать файл в формате xlsx:
Мы получили довольно большой список ключевых запросов (1084 слов). Некоторые из них лишние, поэтому лучше пробежаться по списку и удалить ненужные слова.
Определение частотности
Далее соберем частотность оставшихся ключей. Чтобы понимать, какие из ключевых слов будут генерировать трафик, а какие нет.
Для этого создаем новый проект (указываем название и регион), во второй вкладке выбираем «Сбор частотности», отмечаем первые три варианта:
Далее загружаем наш скорректированный файл и запускаем проект:
Как закончится сбор частотности, можно скачать файл. Смотрим, что получилось. О том, как спрогнозировать трафик по ключевым словам, мы уже писали, если еще не читали – прочитайте обязательно.
Скажу только, что не советую использовать для продвижения запросы-пустышки, т.е. слова, по которым частота с операторами «!Ключ» равна нулю.
Кластеризация ключевых фраз
Кластеризация – разбивка ключевых слов на группы с точки зрения логики и на основе выдачи поисковых систем. После распределения запросов на группы вы получите, по сути, готовую структуру сайта.
Для этого нажимаем на «Кластеризацию» и создаем новый проект:
Называем проект «Спецтехника3» (любое название на ваш выбор), выбираем поисковую систему (мы выбрали Яндекс), также указываем регион:
Следующий шаг – настройка сбора. Для начала нужно выбрать тип алгоритма кластеризации. Данные алгоритмы работают по одному и тому же принципу (сравнение ТОПов поисковиков), но предусмотрены для решения разных задач:
- Wordstat – подходит для создания структуры сайта.
- Ручные маркеры – подходит, если у вас уже есть готовая структура сайта, и вам нужны ключевые слова, по которым нужно продвигать имеющиеся страницы сайта.
- Комбинированный (ручные маркеры + Wordstat) – подходит для задачи одновременного подбора ключевых слов для существующей структуры сайта и ее расширения.
Здесь же указываем минимальную частотность, которую используем, и точность кластеризации:
Чем больше точность кластеризации, тем большее количество ключей попадут в одну группу. Для блогов и порталов точность не так важна (можно поставить 3 или 4). Но для сайтов с конкурентными тематиками лучше выбирать более высокую точность группировки.
Как видно из скриншота, мы выбрали все допустимые точности группировки. На цену кластеризации это не влияет, зато мы сможем определить какая группа нам больше подходит.
Приступаем к следующему этапу – загрузке файла с ключевыми словами:
Результат кластеризации в формате xlsx выглядит следующим образом:
Нас основе этого файла можно составлять Карту релевантности, формировать ТЗ для копирайтеров.
Программа Slovoeb
Одна из лучших бесплатных программ для составления семантического ядра. Многие ее называют «младший брат Key Collector».
Плюсы:
- Программа абсолютно бесплатная.
- Наличие подсказок, описание программы и ее инструментов.
- Понятный интерфейс.
Минусы:
- Требует установки на компьютер.
- Нет автоматической кластеризации запросов.
- Нет обновлений программы.
Настройка программы
Для начала скачиваем программу и устанавливаем на компьютер. После запуска необходимо произвести настройку программы, а именно указать во вкладке «Yandex.Direct» данные от аккаунта Яндекса.
Важно: указывайте логин и пароль от нового созданного аккаунта, не используйте имеющийся:
Остальные настройки можно оставить по умолчанию.
Парсинг ключевых слов
Создаем новый проект:
Далее необходимо указать регион вашего сайта. Внизу панели есть вкладка «Регионы»:
Для начала сбора ключей нажимаем на верхней панели значок красной диаграммы – сбор поисковых запросов из левой колонки статистики Яндекс.Вордстат.
Например, мы составляем семантическое ядро для сайта клининговой компании. Укажем 3 базовых запроса «клининговые услуги», «уборка квартир» и «мойка окон»:
Также произведем сбор из правой колонки Yandex.Wordstat:
После этого произведем зачистку слов, т.к. список получился слишком большой и много лишних слов. Удалять слова можно вручную, отмечая каждое слово:
Далее соберем все частотности «Ключ», «!Ключ» и удалим запросы-пустышки, у которых частота равна 0:
Также можно определить конкуренцию среди проиндексированных сайтов в Яндексе и Google по данному запросу:
В итоге мы получаем отобранные ключевые слова, по которым можно продвигать сайт:
Если указать адрес сайта, то можно определить релевантные страницы в Яндексе и Google, а также позиции сайта в этих поисковых системах:
Подведем итог:
Специализированные онлайн-сервисы и программы помогают собирать семантическое ядро, экономят время и упрощают работу SEO-специалиста.
Платные сервисы, как правило, имеют больше возможностей, чем бесплатный софт. Но во всех случаях требуется доработка сем. ядра вручную.
P.S. Наши специалисты выполняют разработку семантического ядра и карты релевантности «под ключ». Так что если чувствуете, что сами не справитесь, то обращайтесь. Подготовим проектный документ.
Что такое карта релевантности (если вдруг не знаете) – тут.
Заказать разработку СЯ и карты можно тут (ищите в разделе «Оптимизация и техническое сопровождение»).
1ps.ru
Базовая парадигма сбора семантики
На схеме выше показана единственно верная логика сбора семантического ядра — сначала получить базовые запросы (маркерные), которые характеризуют вашу тематику, а потом расширить их дополнительными запросами и сформировать структуру сайта.
Почему именно такая методология? Все просто: при таком подходе к подбору семантического ядра вы
а) будете контролировать процесс сбора семантики и не «закопаетесь» в уйме ключевых слов
б) вам практически не придется чистить семантическое ядро вручную
в) Это быстрее, чем любая другая методология.
Давайте раз и навсегда разберемся в терминологии, которую наша команда использует при работе с семантикой
Фактически есть 2 типа запросов: маркерные запросы и запросы из облака ключевых слов
Маркерные запросы
Маркерные запросы — это запросы, которые четко отвечают продвигаемой странице. Такие запросы обычно имеют значимую частотность по Wordstat и являются средне-частотными (СЧ), или «жирными» низкочастотниками (НЧ), и могут породить «хвост» запросов, например при добавлении слов «купить», «цена», «отзывы».
Примеры:
Платья
Красные платья
Красные платья в пол
Телевизоры
Телевизоры Samsung
Телевизоры Самсунг
LED телевизоры Samsung
Стиральные машины
Стиральные машины для дачи
Стиральные машины шириной 40 см
Другими словами, эти ключевые слова часто являются названием страниц/категорий/статей/карточек товара и прочих типов страниц, которые вообще можно продвигать в поисковых системах.
Часто задаваемые вопросы про маркеры:
Q: Могут ли для страницы быть несколько маркеров?
A: Да — конечно — это довольно частый случай.
Например, на одну страницу могут идти такие маркеры как:
Телевизоры Samsung
Телевизоры Samsung купить
Телевизоры Самсунг
Телевизоры Самсунг купить
Телевизоры самсунг цена
Все эти запросы четко отвечают одной странице
Так же на одну страницу могут идти два маркера-синонима, не связанных лингвистически:
Спецоджеда
Рабочая одежда
или
электроплита бош
электрическая плита bosch
Это вполне нормально и логично.
НЕ маркеры — облако запросов. Это все второстепенные запросы, которые уточняют маркерные запросы — т.е. по факту это маркеры + 1/2/3 слова или синонимы маркеров. Как правило запросы из облака — менее частотные и поэтому мы будем привязывать их к маркерам
Как найти маркерные запросы?
Сразу скажем, что получить маркерные запросы для сайта любого объема ПОЛНОСТЬЮ автоматически не получится по ряду причин. Это на данный момент основной фронт ручной работы при подборе семантики. Мы работаем над автоматизированным алгоритмом и сообщим вам о его выходе.
Вариант №1: можно получить маркеры для страниц своего сайта из Яндекс Метрики 2.0 — как это сделать — детально описано в этой статье. Плюсы такого метода — что вы сразу будете знать релевантные URL для этих запросов.
Вариант №2: Берем названия категорий/услуг своего сайта и расширяем их логическими гипотезами:
«Как, по каким запросам пользователи еще могут искать эту страницу моего сайта? Какие есть синонимы?»
NB!: Отличным подспорьем в определении маркеров является старый добрый Яндекс Wordstat, при всех его недостатках. Рекомендуем использовать браузерный плагин Yandex Wordstat Assistant от компании Semantica — очень удобный — выполняет роль своего рода «заметок на полях» — в него можно в один клик добавить интересующие слова.
Мы понимаем, что не у каждого оптимизатора/владельца бизнеса есть под рукой департамент разработки, который быстро сможет выгрузить для сайта связку URL — название категории/страницы.
Что такое связка URL-название категории/страницы?
Поэтому есть 3 варианта как получить связку URL — название категории/страницы:
- Запросить у программистов — идеальный 🙂
- Самому спарсить это с сайта. В этом поможет отличный и простой инструмент — Screaming Frog (официальный сайт Screaming Frog). Это парсер сайта, который в итоге отдаст вам в формате Excell таблицу вида URL — заголовок H1 (это и есть название категории/страницы).
- Если структура сайта еще только проектируется — резонно вручную придумать связки URL-название категории.
Фактически маркеры для вашего сайта будут состоять из:
- Запросов, выгруженных из Яндекс Метрики
- Названий категорий/страниц, взятых с сайта
- Расширений названий категорий/страниц т.е. логических гипотез
Важно выполнить эту часть работы по подбору семантического ядра максимально тщательно т.к. если вы потеряете большУю часть маркеров — вы потеряете большУю часть семантического ядра.
Часто задаваемые вопросы по подбору маркеров:
Q: У меня большой сайт и маркеров сотни или тысячи — как быть?!
A: В таком случае нужно работать итерациями, собирая семантику начиная с самых приоритетных категорий.
Реалии таковы, что собрать семантику для большого интернет-магазина или портала «за раз» невозможно — вы просто «закопаетесь».
Определите самые приоритетные категории по принципу самой высокой маржинальности и принципу сезонности — эффективнее всего начинать продвигать категории за 6 месяцев до их пикового сезонного спроса. Сезонность можно оценить в Яндекс Wordstat. Пример запроса:
Q: На сколько низкочастотное слово может быть маркером?
A: Здесь все зависит от тематики. В узких тематиках даже ключевые слова с частотностью 15 по кавычкам «» могут быть маркерными запросами. Главное правило — спросите себя — хотел бы мой пользователь видеть отдельную страницу под этот запрос (и связанные с ним?). Удобно ли ему будет пользоваться той структурой, что я создаю?
NB:! Для интернет магазинов нужно сразу же скрестить все маркеры со словами «купить» и «цена» — это тоже будут маркеры. Таким образом все запросы точно попадут на нужные страницы.
Q: Как мне держать маркеры в Excell, чтобы потом мне было удобно с ними работать?
A: Идеальный и единственно правильный вариант — всегда держать связку URL-маркер в Excel — так вы всегда сможете понимать какие маркеры идут на один URL, даже если ваш список перемешается.
В дальнейшем таким образом вы сможете фильтровать целые кластеры, которые идут на одну страницу — это может быть и 10 и 50 ключевых слов. Очень удобно.
Пример правильного оформления маркеров в Excel
Итак, после N времени работы мы собрали маркеры для всего сайта (или части сайта), что дальше?
Естественно, что маркеры, это далеко не полная семантика — теперь нам нужно собрать облако запросов — расширить наше семантическое ядро.
Облако запросов — расширение семантического ядра
Облако запросов — это все ключевые слова, полученные парсингом поисковых подсказок и Яндекс Wordstat по маркерным запросам.
По нашему опыту эффективнее всего получать расширения запросов из поисковых подсказок Яндекса + Google и левой колонки Яндекс Wordstat.
Почему?
Не потому, что в Rush Analytics есть парсинг только Яндекс Wordstat и поисковых подсказок 🙂
Потому, что эти источники семантики: а) Обладают максимальной полнотой б) Подсказки изначально трастовый источник семантики т.к. сам Яндекс исправляет орфографию и добавляет в подсказки ТОЛЬКО реальные запросы пользователей. Что нам и нужно.
Часто задаваемые вопросы по сбору облака запросов
Q: У меня есть база Пастухова, есть аккаунт в SeoPult и Sape — там тоже есть ключевые слова — чем они плохи?
A: Если говорить о готовых базах данных (например, База Пастухова), то плохи они вот чем а) непонятно откуда взяты эти запросы — реальные ли это запросы или же это «кривые» запросы горе-оптимизаторов б) Большинство запросов в готовых базах данных банального сгенерированы или уже потеряли актуальность.
SeoPult и Sape можно использовать, чтобы прикинуть свои маркеры — иногда там можно найти интересные ключевые слова
Таким образом, проще собрать свежие и актуальные ключевые слова для своей тематики, чем «копаться в мусоре».
Более подробно ознакомиться с обзором источников ключевых слов можно в этой статье из нашей базы знаний
Поверьте — все пригодные запросы этих баз данных есть в Яндекс Wordstat и поисковых подсказках. Мы проверяли.
Итак — у нас есть 2 потенциальных источника семантики — Яндекс Wordstat и поисковые подсказки.
Алгоритм сбора облака запросов
- Берем маркерные запросы и собираем по ним левую колонку Яндекса Wordstat.
Подробное руководство по сбору Яндекс Wordstat в Rush Analytics можно найти здесь
- После сбора ключевых слов — очищаем полученные данные от мусорных и нецелевых запросов.
В нашем сервисе мы реализовали алгоритм автоматической очистки стоп-слов в Яндекс Wordstat — воспользуйтесь готовыми списками стоп-слов по гео-запросам и списками популярных мусорных слов по различным тематикам. Вы так же можете добавить свой список стоп-слов «под себя». - По полученному списку ключевых слов собираем поисковые подсказки — ставим второй уровень перебора и перебор русского алфавиты.
Для интернет-магазинов/коммерческих сайтов, у которых в семантике есть иностранные бренды крайне рекомендуем поставить и перебор английского алфавита.
Для всех сайтов, у которых есть числовые артикулы — рекомендуем поставить перебор цифр. - После сбора поисковых подсказок вам будет доступен итоговый файл — это как раз то, что нам нужно.
ВАЖНО: в поисковых подсказках вам будут встречаться нецелевые ключевые слова. Избежать ручной чистки этих слов довольно просто — для этого в Rush Analytics есть функционал стоп-слов, который вырезает нецелевые ключевые слова «на лету» — указав список стоп-слов для вашей тематики — в финальной выгрузке вы получите список только нужных и целевых ключевых слов.
Как работать со стоп-словами и как определить их для вашей тематики, мы подробно рассказали в этой статье.
Также в статье представлен обширный список стоп-слов, который подходит для большинства тематик.
Тематические списки стоп-слов и гео запросы интегрированы непосредственно в интерфейс Rush Analytics — во все типы проектов (Wordstat, сбор подсказок и в кластеризацию).
Формируем финальное облако запросов:
Финальное облако запросов будет включать в себя:
а) Ключевые слова, собранные с левой колонки Wordstat
б) Ключевые слова, полученные из поисковых подсказок
Т.е. вам нужно объединить 2 массива данных (2 файла), которые мы получили из поисковых подсказок и из Яндекс Wordstat.
Не забудьте проверить частотность собранных подсказок по Wordstat — это пригодится вам в дальнейшей работе.
Здесь вы должны иметь от нескольких тысяч до нескольких сотен тысяч целевых ключевых слов + знать их частотность по Wordstat. Уже на данном этапе понятно, что собранная база ключевых слов в 10-50 раз превышает то, что имеют конкуренты 🙂
Построение финальной структуры сайта — кластеризация ключевых слов.
Понятно, что привязать полученное облако запросов к маркерам вручную очень трудоемкая задача, требующая нечеловеческой концентрации и уйму времени. Именно это явилось одной из причин, по которой мы реализовали в Rush Analytics функционал кластеризации запросов по методу подобия выдачи поисковых систем.
Как работает алгоритм кластеризации ключевых слов в Rush Analytics?
Мы собираем ТОП10 результатов поисковый выдачи (Яндекса или Google — на выбор), далее сравниваем — какие запросы имеют несколько (от 3 до 8ми) общих URLв ТОПе и исходя из этих данных автоматически группируем запросы в кластеры.
Часто задаваемые вопросы по кластеризации ключевых слов:
Q: Какая еще цель кластеризации, кроме облегчения рутинной работы по группировке ключевых слов?
A: Кластеризация ключевых слов на основе данных из поисковой выдачи — гарантирует то, что запросы, которые попали в один кластер будут УСПЕШНО продвигаться на одну страницу. Кластеризация по методу подобия ТОПов исключает попадание коммерческих и информационных запросов в один кластер.
Коммерческие запросы никогда не продвинутся на одну страницу с информационными. Частая ошибка при продвижении интернет-магазинов, которая приводит к печальным последствиям — это продвижении коммерческих и информационных запросов на одну страницу.
Q: Почему часть ключевых слов в моем проекте некластеризована?
A: Изначально сервис Rush Analytics создавался для внутренних нужд агентства Rush Agency. Наш основной профиль — продвижение крупных Ecommerce проектов, где основная задача не сгруппировать запросы «абы как», а сгруппировать их так, чтобы они успешно попадали в ТОП поисковой выдачи уже в момент индексации страниц, сделанных под семантику. Таким образом — мы кластеризуем только те ключевые слова, для которых нашлась пара, и которые реально будут продвигаться на одну страницу. Остальные ключевые слова мы оставляем некластеризованными, чтобы не вводить в заблуждение специалистов, которые работают с семантикой.
Q: Почему в кластеризации есть настройки точности? Зачем они?
A: В каждой тематике есть свой, необходимый и достаточный порог схожести выдачи, чтобы получить качественное семантическое ядро. Например при продвижении интернет-магазинов, будет большой проблемой, если при кластеризации запросов ключевые слова «мультиварка Redmond RX500» и «Мультиварка Redmond RX500-1» будут попадать в один кластер — т.к. это разные товары и они должны продвигаться на разные карточки товара. Здесь мы рекомендуем использовать точность = 5
Для инфо-тематик, например, для сайтов скидок или рецептов, такая точность не нужна — здесь задача получить максимальное количество сгруппированных кластеров для написания статей. Для таких сайтов мы рекомендуем точность 3 или 4. А для сайтов в очень конкурентных тематиках, где борьба за ТОП идет в основном по конкурентным ВЧ запросам — мы рекомендуем использовать повышенную точность кластеризации — 6 или 7, а под некластеризованные запросы создавать отдельные страницы.
Q: В чем разница в ваших алгоритмах кластеризации? Какой для какого случая использовать?
A: У нас есть 3 алгоритма кластеризации:
- Кластеризация с ручными маркерами
- Кластеризация по Wordstat
- Комбинированный алгоритм кластеризации (ручные маркеры + Wordstat)
Работают они по одному и тому же базовому принципу — сравнению подобия ТОПов поисковых систем, но предназначены для решения несколько различных задач.
Алгоритм с использование ручных маркеров:
Данный алгоритм эффективнее всего использовать когда у вас есть готовая и довольно разветвленная структура сайта (каталога), и вы наперед знаете все маркеры и вам нужно просто понять по каким запросам вы собираетесь продвигать существующие страницы, а задачи расширения структуры сайта не стоит. В таком случае вы берете свои маркеры (названия категорий/страниц), собираете по ним подсказки, размечаете маркеры как 1, собранное облако как 0 и отправляете на кластеризацию. На выходе вы получите готовую семантику для своих категорий, а слова, которые не привязались к вашей структуре останутся некластеризованными.
Алгоритм кластеризации по Wordstat
Этот алгоритм скорее решает обратную алгоритму ручных маркеров задачу: вы еще не знаете структуры своего сайта и не можете выделить маркеры — вы просто собрали Wordstat, подсказки и частотность по подсказкам. Теперь вам нужно структурировать эту семантику, чтобы получить группы запросов под страницы будущего сайта или будущих категорий существующего сайта. В таком случае алгоритм кластеризации по Wordstat подойдет как нельзя лучше, работает он следующим образом:
Весь список ключевых слов сортируется по убыванию частотности, алгоритм пытается привязать все возможные слова из списка к самому частотному слову и формирует кластер, далее все повторяется итерационно для следующих по частотности ключевых слов.
Не волнуйтесь за то, что ключевые слова могут при первом проходе алгоритма привязаться к неверному кластеру — мы используем алгоритмы машинного обучения, построенные на бинарных деревьях, чтобы предотвратить это 🙂
Комбинированный алгоритм (ручные маркеры + Wordstat) — сочетает подходы двух предыдущих методов.
Этот алгоритм подходит для задачи одновременного подбора ключевых слов для существующей структуры сайта и ее расширения. Работает он следующим образом: сначала мы пытаемся привязать все возможные запросы к вашим маркерным запросам и формируем готовую структуру, привязанную к вашим маркерам. Далее, все запросы, что не были привязаны к маркерам — сортируются по убыванию частотности и группируются между собой. В результате вы получаете:
а) Готовую семантику для существующих категорий сайта
б) Расширение семантики для вашего сайта.
Мы настоятельно рекомендуем использовать комбинированный алгоритм — он дает наилучший результат.
Финализируем структуру сайта — делаем комбинированную кластеризацию
Так как мы изначально собирали семантику правильно (формируя маркерные запросы для нашего сайта) — будем использовать комбинированный алгоритм кластеризации.
Для выполнения кластеризации ваш список запросов должен выглядеть так:
Где в первой колонке находятся ключевые слова, в второй разметка маркер/не маркер (1/0), а в третьей любая частотность Wordstat (та, которую вы обычно используете для продвижения). Скачать пример файла для загрузки в кластеризатор
Подробные рекомендации, по вопросу какую частотность использовать для продвижения, приведены в этой статье
Вы можете не фильтровать вручную ключевые слова с частотностью, ниже который вы не работаете с ключевыми словами — такой функционал предусмотрен прямо в проектах по кластеризации. Функционал особенно полезен при кластеризации по Wordstat.
Определение релевантных URL для кластеров.
В результате кластеризации вы получите готовый список кластеров, под которые нужно продвигать страницы вашего сайта. Теперь главный вопрос состоит в принятии решения — на какую страницу продвигать тот или иной кластер.
Мы в Rush Agency, предпочитаем сразу продумывать структуру сайта и URL страниц и сразу привязывать маркерные запросы (а соответственно и кластеры) к страницам. Но это требует большой подготовки и просчета на этапе создания семантики — не всегда на это есть время и ресурсы. Так же для информационных порталов и интернет-магазинов не всегда можно предугадать все поисковые желания пользователей используя логические гипотезы и приходится делать кластеризацию списка ключевых слов используя только частотность Wordstat.
Специально для этого случая — мы предусмотрели функционал автоматического определения релевантных URL для кластеров.
ВАЖНО!: для автоматического определения релевантных URL необходимо ввести адрес вашего сайта при создании проекта по кластеризации
![]()
Работает алгоритм следующим образом:
После кластеризации наши алгоритмы проверят, не находится ли ваш сайт уже ТОПе по маркерному запросу — если да, то мы присвоим кластеру и всем его запросам URL вашего сайта, который уже в ТОПе и подсветим его зеленым цветом в веб-интерфейсе и в XLSX выгрузке.
Если ваш сайт не в ТОПе по маркерному запросу — мы попытаемся определить релевантную страницу на вашем сайте используя поиск по вашему сайту с оператором «site:». Найденный URL с вашего сайта будет присвоен кластеру и всем входящим в него запросам. Такие URL имею обычный цвет — черный.
Не понятно на какой URL продвигать кластер и его ключевые слова? Не можете принять решение — продвигать старую страницу или делать новую?
Не беда — мы подробно рассмотрели этот злободневный вопрос в этой статье
Вместо заключения
В результате, при правильном подходе к созданию семантического ядра, описанном в данном руководстве — вы в кратчайшие сроки получите максимально полное семантическое ядро для вашего сайта. К тому же запросы, сгруппированные по методу подобия поисковой выдачи с большой вероятностью попадут в ТОП выдачи поисковых систем уже в момент индексации (или переиндексации) страниц, на которые они продвигаются.
Помните, что попадание в ТОП напрямую зависит от правильной внутренней оптимизации страниц вашего сайта — об этом мы рассказываем в этой статье
Успехов при работе с семантическим ядром. Мы рады, что вы с нами и используете наши инструменты, в которые мы вкладываем очень много труда!
Надеемся, что статья оказалась для вас полезной и будем рады, если вы поделитесь ей с друзьями в социальных сетях.
____
Команда Rush Analytics
www.rush-analytics.ru
Сбор Семантического Ядра
Предлагаю Вашему вниманию пошаговый алгоритм для сбора и формирования Семантического Ядра:
- Подбор базовых запросов.
- Подбор минус-слов.
- Парсинг ключей в Вордстат.
- Сбор поисковых подсказок в Яндексе и Гугле.
- Составление общего списка запросов и подсказок.
- Сбор частотности.
- Чистка списка от мусора.
- Деление запросов на коммерческие и информационные.
- Вычисление полноты, убираем пустые запросы.
- Финальная кластеризация.
- Ручная доработка по кластеризации.
- Работа над структурой сайта.
- Планирование страниц.
- Прописываем ЧПУ, Title, H1.
- Составление ТЗ и заказ текстов.
Вот такой получился чек-лист. У разных специалистов он может несколько отличаться, они могут использовать другие сервисы в работе. Но основное направление должно быть таким.
Если у кого-то есть замечания, предложения или дополнения, то можете это отразить в комментариях.
Теперь давайте более подробно разберемся, что и как придется проделать в каждом из этих пунктов.
1. Подбор базовых запросов – базисов
Для сбора базисов, как правило, предпринимают следующие действия:
- Мозговой штурм
- Получение ключей от заказчика
- Добываем ключи конкурентов
- Сленговые и жаргонные слова, аббревиатура и т.п. варианты
- Запросы на кириллице и латинице
- Генерация базисов
Этот шаг очень важен, так как дает направление по сбору ключевых запросов, а оно должно быть выбрано правильно.
2. Подбор минус-слов
Этот шаг не менее важен, чем первый и делать его приходится вручную. Минус слова заносятся в отдельный список, который пополняется на протяжении всей работы над семантикой сайта.
Первоначально такие слова собираем при сборе базисных запросов. Они могут встречаться при сборе ключей у конкурентов, при генерации и т.д. Затем большую часть формируют при парсинге Вордстата. В последующих шагах при попадании мусорного запроса в рабочий список его также следует заносить в список минус-слов.
3. Сбор ключевых слов в Wordstat
Этот шаг можно делать руками, но специалисты используют различные сервисы. Такие функции есть в сервисах Rush-Analytics, Just-Magic, в программе Key Collector.
Для сбора следует сделать следующее:
- Загрузить базисы
- Загрузить минус-слова
- Задать глубину парсинга
- Задать регион
Сервисы платные, но собирают быстро, а Key Collector собирает довольно долго, но зато бесплатно.
Есть еще немало сервисов и программ для выполнения сбора запросов, я перечислил те, с которыми наиболее часто работал.
4. Сбор поисковых подсказок
На основе полученного в предыдущем шаге списка запросов делаем сбор подсказок. Для этого подойдут те же сервисы Rash-Analytics(RA) или Just-Magic(JM).
Можно использовать программку с ярким название «Словодер». Это упрощенная и бесплатная версия Кей-Коллектора.
Полученный список подсказок чистим по минус-словам.
5. Составление общего списка
Сливаем списки запросов и подсказок в один. Обычно это делают в Excel. Удаляют дубликаты и список готов к дальнейшей работе.
6. Сбор частотности
Частотность собираем при помощи тех же сервисов. Для работы достаточно собрать общую частотность WS и фразовую“WS”, некоторые используют и точную частотность “!WS”.
Затем позиции с фразовой частотностью равной 0 можно убрать уже на этом этапе. Остальные запросы с частотностью меньше 10 убирать не следует. Но это уже зависит от тематики сайта.
7. Чистка рабочего списка
Полученный в предыдущем шаге список запросов загружаем в программу Key Collector производим такие действия:
- Убираем дубли
- Убираем мусор по минус-словам
- Удаляем длинные ключевые фразы
- Чистим запросы по «Анализу групп»
- Убираем неявные дубли
- Ручная чистка
Все запросы, убранные из основного списка можно сохранить в отдельном файле. Они могут быть использованы как синонимы или в анкор-листе и т.п. подобных вещах.
8. Деление запросов на коммерческие и информационные
Для коммерческих сайтов необходимо отделить информационные запросы. Коммерческие будут использованы на посадочных страницах, информационные можно использовать на блоге коммерческого сайта.
9. Вычисление полноты запроса
Полнота запроса вычисляется путем деления частотности Фразовой на Общую.
Полнота = (“WS” / WS) * 100
Работаем с данными в Excele.
Просчитываем столбец с полнотой и сортируем таблицу по возрастанию полноты запроса.
Все значения менее 5% находятся в группе риска. Просматриваем их и удаляем все мусорные.
10. Кластеризация
Кластеризация — это процесс разбиения запросов на группы. Для кластеризации используем сервисы RA или JM, можно воспользоваться и другими сервисами. Недавно знакомился с версией кластеризации сервиса Serpstat. Он отличается от подхода других сервисов – интересные решения.
11. Ручная доработка по кластеризации
К сожалению, результаты кластеризации в сервисах требуют ручной доработки. Какие-то кластеры объединяются, какие-то делятся, переносятся запросы из одного кластера в другой. Причем это будет довольно большой объем работы, требующий времени, умения, опыта…
12. Работа над структурой сайта
Уже приступая к работе с семантикой, делая подбор базисов у Вас сложится в голове предварительная структура сайта.
Получив результаты кластеризации запросов, картина становится более ясной и обретает четкие очертания. Вы определяете основные разделы и подразделы сайта.
13. Планирование страниц
Продолжаем работу над структурой сайта. Распределяем группы запросов (кластеры) в соответствующие им разделы и подразделы. Определяем основные ключевые слова, по которым будет продвигаться каждая страница. Как правило – это наиболее частотные запросы в группе.
14. Прописывание ЧПУ, Title, H1, H2
Определившись со страницами, приступаем к заполнению наиболее ответственных полей.
- Определяем URL страницы, обязательно ЧПУ (человеко-понятный УРЛ).
- Прописываем заголовки Title.
- Прописываем заголовки H1 и подзаголовки H2.
15. Составление Техзаданий для заказа текста
На этом этапе работаем над составлением технических заданий копирайтерам для написания текста.
На всех этапах работы желательно промежуточные результаты согласовывать с заказчиком. Заказчики бывают разные, здесь как повезет. Но если они принимают участие в работе над Семантическим Ядром, то это заметно повышает качество. Хотя зачастую снижает скорость обработки, в связи с согласованиями и консультациями.
P.S. Для составление Семантического Ядра придется приложить немало умения, усилий и времени. Этот процесс включает в себя как творческую, так и рутинную работу.
Но в результате Вы получите мощную информационную платформу для создания, наполнения и развития своего сайта.
Итак, в целом разобрались со сбором семантики для сайта? Отлично! Тогда приступаем к подбору Базисов.
P.S.S. Если Вам необходимы услуги по сбору семантики, то обращайтесь. Буду рад оказать помощь. Мои контактные данные: E-mail – uhan@inetmkt.ru, Skype – uvsilin.
inetmkt.ru