Выжимка: что оптимизаторы и копирайтеры думают о LSI
Если читать подряд все, что написано по теме, то вырисовываются следующие тезисы.
- Аббревиатура расшифровывается как latent semantic indexing – скрытое семантическое индексирование.
- Текст для продвижения должен включать тематичные слова, а не только ключевые.
- К LSI-словам относятся а) синонимы основного ключевика б) слова, которые характеризуют и дополняют основной ключевик в) другие слова, имеющие отношение к теме статьи.
- LSI – это специальный новый алгоритм поисковиков против плохих SEO-текстов, “новая эра в копирайтинге”.
- Также алгоритм нужен чтобы отличать тексты по смыслу. Например, чтобы разделить описание фильма “Тачки” от характеристик садового инвентаря.
- А еще LSI-текст должен иметь структуру, быть написанным простым языком, иметь приятный ритм, правильно распределять ключевые слова и тематичные расширения. Информация должна быть подана на уровне эксперта без грамматических и орфографических ошибок.
- Чтобы найти LSI, можно использовать подсказки поисковой системы, подсветки на выдаче, анализ текстов конкурентов (и сервисы, которые все это автоматизируют).
- Кое-где даже проскакивают заголовки “LSI убило SEO!” (ссылка, которую я автоматически вставляю после очередных похорон моей профессии).
Я только что сэкономил вам несколько часов на перелопачивание десятков статей по теме. Теперь попробуем разобраться, что тут правда, а что миф. А главное – как можно использовать это знание на практике.
Что такое LSI на самом деле?
Вот краткий и академически точный ответ:
Это видео стало сеошным мемом – нагромождение терминологии вызывает смех. На мой взгляд, довольно странно бояться незнакомых терминов, если под рукой есть Google. Чтобы разобраться в матчасти на бытовом уровне, не надо быть профессором.
Например, можете почитать статью “Тематическое моделирование текстов на естественном языке” (авторы Антон Коршунов, Андрей Гомзин), она раскрывает эту и несколько смежных тем на весьма доступном уровне. Приведу несколько ключевых цитат.
Сначала о важности метода:
Зачастую документы, релевантные запросу с точки зрения пользователя, не содержали терминов из запроса и поэтому не отображались в результатах поиска (проблема синонимии). С другой стороны, большое количество документов, слабо или вовсе не соответствующих запросу, показывались пользователю только потому, что содержали термины из запроса (проблема полисемии).
В 1988 г. Dumais et al предложили метод латентно-семантического индексирования (latent semantic indexing, LSI), призванный повысить эффективность работы информационно-поисковых систем путём проецирования документов и терминов в пространство более низкой размерности, которое содержит семантические концепции исходного набора документов.
А теперь о том, как он реализуется.
Исходная точка – это терм-документная матрица:
Элементы этой матрицы содержат веса терминов в документах, назначенные с помощью выбранной весовой функции. В качестве примера можно рассмотреть самый простой вариант такой матрицы, в которой вес термина равен 1, если он встретился в документе (независимо от количества появлений),и 0 если не встретился.
d1-d6 – документы, в первом столбце – термины.
Легко видеть, что некоторые термины встречаются вместе в одном документе а другие – нет. Поисковые системы обладают базой текстов, которая в полной мере отражает особенности естественного языка. Это позволяет создавать огромные терм-документные матрицы и на их основе делать достоверные выводы о взаимосвязях между словами и принадлежности текстов к той или иной тематике.
Однако огромный размер хорош только в плане статистической достоверности. Напрямую работать с матрицей, которая получена из миллиардов текстов, невозможно, так как требует слишком больших машинных ресурсов. Вот тут и нужно сингулярное разложение – математическая операция, которая позволяет упростить терм-документную матрицу, выделив из нее только самые значимые тенденции. Это и есть “проекция в пространство более низкой размерности, которое содержит семантические концепции исходного набора документов”.
(С матчастью практически закончили, дальше пойдет ближе к практике. Если интересуют детали – обратитесь к статье на habrahabr, где разобран простой рабочий пример и показаны этапы разложения).
Для нас больше всего важна последняя цитата, которая поясняет конечную цель всех этих процедур с точки зрения поисковой системы:
Для задач информационного поиска запрос пользователя рассматривается как набор терминов, который проецируется в семантическое пространство, после чего полученное представление сравнивается с представлениями документов в коллекции.
Именно так и можно найти документ, который релевантен по смыслу, хотя и не содержит ключевых слов запроса, то есть не обладает текстовой релевантностью в классическом понимании.
А еще поисковик может сравнить представление текста конкретной страницы с эталонными документами конкретной тематики. Если они будут сильно различаться – это серьезный сигнал о том, что с текстом что-то не так.
Например, типичный SEO-текст образца 2008 года состоит из “воды” и специально вставленных ключевых слов. “Вода” в нашем семантическом пространстве будет толкать текст к документам общей тематики, а ключевые слова – наоборот к конкретной теме. Это несоответствие не так сложно выявить.
Недостатки LSI как метода оценки смысла текста
Даже после поверхностного знакомства с методом, вы обязательно заметите, что LSI – это не магия, а всего лишь методика анализа текстов. Более того, она имеет ряд недостатков и упрощений:
- Текст в этом методе рассматривается просто как “мешок слов”. Игнорируется их порядок и взаимосвязи в предложении.
- Считается, что слово имеет единственное значение.
- Смысл естественного текста не обязательно совпадает со значением набора слов. Иносказание, ирония, подтекст таким образом не распознаются.
- Сингулярное разложение позволяет работать только с самыми значимыми составляющими исходной матрицы. Часть данных при этом все равно теряется.
Почему я заостряю на этом внимание? Потому что теперь мы видим полную картину и наконец можем сделать несколько важных промежуточных выводов. Вернемся к началу статьи и трезво посмотрим на распространенные убеждения. Итак.
Что нужно понимать, приступая к LSI-копирайтингу
Во-первых, не стоит думать, что LSI – это волшебная таблетка.
Совершенно очевидно, что поисковые системы используют множество методик для определения “спамности” или “полезности” текста. Скрытое семантическое индексирование не универсально, у него есть недостатки. Поисковики безусловно знают о них. Если они и применяют LSI (что не доказано) то наверняка в комплексе с другими факторами. Например, огромное количество данных о качестве текста дают поведенческие метрики.
Так что просто натыкать в водянистый текст тематичных слов – не лучшая стратегия в долгосрочной перспективе.
Во-вторых, нет смысла приравнивать написание хороших текстов в LSI-копирайтингу.
А именно это и происходит. Вот скриншот из Википедии о LSI-копирайтинге:
Зачем присобачивать принципы, известные со времен этак Гомера, к одной узкой методике?
В-третьих, LSI в чистом виде – история в первую очередь про “угадывание” смысла запроса, классификацию документов по темам и фильтрацию спама, и только во вторую – про ранжирование.
Недавно делал конспект докладов об устройстве Яндекса. Там есть очень показательный момент. Александр Сафронов рассказывает о направлениях по лингвистике для улучшения качества поиска. В том числе о синонимах и о связанных расширениях, уточнениях, похожих запросах. То и другое принято объединять под ярлыком “LSI”. Но!
Распознавание синонимов – это в большей степени “боль” самой поисковой системы. Там понимают, что текст может быть качественным и релевантным, даже не включая все варианты. Например страница с вхождением “купить” может прилично ранжироваться по ключам “покупка”, “приобрести” и так далее.
А вот про расширения запроса Александр Сафронов четко говорит:
Скорее всего, релевантный документ, помимо слов запроса, будет содержать эти дополнительные слова (если он действительно хорошо отвечает на запрос пользователя).
Пример дополнительных слов:
Заметьте, кстати, что здесь мы видим связи не только между отдельными словами. Поэтому очевидно, что для выделения расширений используется другая методика, а не LSI.
Второй нюанс в том, что базой для их получения является не только коллекция текстов, но и поисковые запросы. Их использование – это возможность для поисковика искать связи не по формальным критериям (встречаются ли в одном тексте или нет). Вариант: анализ связей между группой запросов, которую задал один пользователь в короткий промежуток времени (разумеется, с объединением данных по миллионам пользователей).
В-четвертых, для нахождения LSI требуются алгоритмы, работающие с довольно большим объемом текста.
Самый простой и часто предлагаемый путь – парсить подсветки Яндекса – и всегда работал не очень хорошо, давая очень скудный спектр слов, сейчас вообще малоактуален.
В-пятых, слова, которые предлагают сервисы, не являются результатом “настоящего” LSI или его аналога, с которым работают поисковые системы (дальше эта оговорка упускается для краткости и как дань сложившимся понятиям).
Пункт прямо следует из предыдущего. Очевидно, что сервисы не имеют всех возможностей поисковика. Или, по крайней мере, не знают, на какой коллекции документов он определяет закономерности для себя. Тем не менее, связанную лексику сервисы могут генерировать неплохо. Для получения адекватного списка нужно как минимум работать с текстами из ТОПа по запросу (и лучше ТОП-50, а не ТОП-10). При этом, разумеется, тексты в ТОПе должны быть достаточно высокого качества. По низкочастотным запросам не всегда удается набрать достаточную базу.
Как правильно готовить LSI-тексты?
Ну вот мы и добрались до главного.
Если вы внимательно читали предыдущую часть, то могли задаться вопросом – а надо ли вообще этим заморачиваться? Ведь:
- Метод не идеален, имеет множество ограничений.
- Поисковики явно используют куда более сложные алгоритмы.
- Для получения адекватного списка нужна хорошая выборка данных, которую не всегда просто получить.
- Сами слова, задающие тематику, важны в первую очередь для защиты от фильтров. Конкретно в ранжировании помогают скорее не классические LSI-слова, а расширения из поисковых запросов.
- Писать тексты с LSI – значит дополнительно напрягать копирайтера. Иначе говоря – отвлекать его внимание от других важных элементов текста и оплачивать труд по более дорогой ставке. А еще – подсказывать путь, как можно написать статью внешне качественно.
- При этом все равно есть риск получить водянистый текст с кое-как вставленными терминами.
Я считаю, что мода на LSI (как и в случае большинства трендов) в значительной мере подогрета искусственно. Это в первую очередь способ позиционировать свои услуги по написанию текстов как более качественные либо продвинуть сервис по поиску тематичных слов. По крайней мере, у меня сложилось именно такое впечатление после чтения англоязычных материалов.
При этом зарубежные SEO-шники не особо утруждают себя поиском доказательств. Скриншот типичной статьи с советами по SEO:
(Привет всем, кто любит повторять мантру, что, дескать, интернет-маркетинг в России отстает на 3 года. В русскоязычных материалах я в целом видел более критичное отношение к теме, а сервисы в Рунете позиционируют свои услуги куда более аккуратно, не выдавая за волшебную кнопку. Впрочем, это субъективное наблюдение, чисто личные впечатления. Возможно, мне попались не те статьи. На Западе их очень много.)
Однако! Несмотря на все минусы, использовать LSI можно и нужно. Требуется только делать это эффективно и учитывать приведенный выше перечень проблем.
Мой вариант использования LSI
Схема очень простая.
1. Получаем список тематичных слов для каждой темы, которую планируем отдать копирайтеру. Сохраняем их леммы. Можно использовать бесплатный сервис Александра Арсёнкина: https://arsenkin.ru/tools/sp/ или платные текстовые анализаторы (убедитесь только, что они не ограничиваются парсингом подстветок). Так, у Serpstat есть интересный отчет “похожие фразы”, который создается на основе статистики, по каким запросам наблюдается выдача со сходным составом. Там порой можно накопать неожиданные термины.
Например:
Видим, что в отчет попали “арсенкин тулс”, которые относятся к лемматизации именно по смыслу, а не формальному сходству слов.
2. Однако в ТЗ копирайтеру слова НЕ указываем. Главная задача – получить от него адекватный, решающий задачи пользователя текст. Именно на это и должен быть акцент.
3. Полученные на проверку тексты прогоняем через лемматизатор (тоже есть у Арсёнкина: https://arsenkin.ru/tools/lemma/ и у меня в сервисе: https://bez-bubna.com/free/lemma.php); результат сравниваем со списком LSI-лемм из первого этапа. Для быстрого сравнения списков можно использовать, например: https://bez-bubna.com/free/compare.php
4. Если значительной части LSI-лемм в тексте нет – смотрим его внимательнее. Возможно, с качеством текста что-то не в порядке. Если все хорошо и статья дает нормальный ответ на запрос – вставляем слова и публикуем. Если же есть проблемы – отправляем на доработку. Снова требуем сделать хорошо, а не просто добавить терминов.
В чем соль?
Во-первых, мы не смущаем копирайтера лишними требованиями.
Во-вторых, получаем полу-автоматический критерий для отбраковки плохих статей. Нормальный, человеческий текст будет содержать много LSI без всяких напоминаний. Если, конечно, тематичные слова были собраны корректно.
В-третьих, экономим собственное время на разбор LSI. Просто так выгрузить из сервиса слова и отдать на внедрение не получится. В них все равно будет попадать термины из смежных тематик (и не только: ошибок может быть много). Если давать LSI в ТЗ – придется чистить все результаты. Если использовать по моей схеме – только некоторые.
Завершающий этап: усиливаем текст новыми расширениями
После публикации текста нужно подождать пару месяцев, пока накопится статистика по переходам на него, а затем переработать контент, учитывая реальные запросы пользователей.
Выше я цитировал доклад сотрудника Яндекса, из которого следует, что наиболее эффективный путь получения дополнительных тематичных слов – работа с поисковыми запросами. Именно на основе этой идеи реализован инструмент по дополнительной оптимизации страниц в моем сервисе https://bez-bubna.com/ (точнее, его часть).
Общий принцип очень прост: смотрим состав поисковых запросов, сравниваем с текстом на странице и находим леммы, которые отсутствуют в тексте, но часто встречаются в запросах. Почему это работает?
Забудем о докладе Яндекса. Допустим, слова из запросов не имеют влияния на продвижение основного ключа (главная функция LSI). Тогда они способствуют продвижению по множеству низкочастотных запросов, которые немыслимо предусмотреть на этапе написания. Особая прелесть здесь в том, что можно исправить недостаточно эффективное семантическое ядро, быстро расширить семантику страницы.
Кроме того, поисковый спрос нестабилен. Появляются новые запросы, под которые еще очень мало контента в Интернете. Используя сервис, вы имеете шанс поймать эти перспективные ключи с малой конкуренцией и сделать контент более актуальным.
Вот пример – скриншот анализа моего поста об охвате записи ВК:
Метод эффективен даже в самом топорном исполнении – см. эксперимент по автоматической вставке ключей. На практике же требуется не просто впихивать новые расширения, но и добавлять контент (или по-новому расставлять акценты), чтобы страница давала адекватный ответ на эти новые запросы.
То есть: проработка страницы с помощью инструмента выходит за рамки простой текстовой оптимизации. Это работа сразу по нескольким фронтам, настоящее повышение качества контента. Это окупается (см. кейс с расчетом рентабельности: в нем не только вырос трафик, но и снизился процент отказов).
Короткие выводы для тех, кто пролистал, не читая
- LSI – один из современных подходов к анализу текстов. Имеет ряд ограничений и недостатков, это не единственный метод, который используют поисковые системы.
- Анализ связанной лексики наиболее эффективен в определении малоценных “водянистых” текстов и нахождении документов, которые могут соответствовать потребностям пользователя, хотя и не содержат ключевых слов, которые он ввел. Важность LSI как такового для ранжирования страниц с ненулевой текстовой релевантностью сомнительна.
- Использовать списки LSI-слов, которые генерируют разные сервисы, лучше всего на этапе приема работ для быстрой оценки и дополнительной оптимизации. В ТЗ же стоить включать более близкие к реальности критерии качества текста.
- Завершающий этап работы со страницей – усиление контента с помощью расширения семантики и проработки в плане интересов пользователя, которые не были приняты в расчет в начале (исходная точка – реальная статистика по запросам, которые давали трафик на страницу). На данный момент единственный публичный инструмент для автоматизации этого этапа есть в сервисе https://bez-bubna.com/.
Удачной работы!
alexeytrudov.com
? Подробный чек-лист, что должно быть на странице «доставка» на сайте:
? ОБЩАЯ ИНФОРМАЦИЯ
1. Страхование груза
2. Информация о том, как собирается груз
3. Особенности упаковки груза (есть ли видеосъемка процесса упаковки)
4. Особенности маркировки груза
5. Особенности погрузки (есть ли видеосъемка процесса отгрузки заказа)
6. Что делать, если клиент обнаружит недостачу или неправильно отгруженный товар (например, ему нужно сфотографировать упаковку, наклейки, товар и отправить на емейл менеджеру в течении первых 24 часов после приемки груза). Через сколько часов будет ответ.
САМОВЫВОЗ
1. Дни / время работы
2. Адрес склада и схема проезда
3. Стоимость въезда на территорию
4. Информация нужен ли пропуск
5. Информация о том, как быстро заказанный вами товар начинает собираться и через сколько после приема денег готов для отгрузки
6. Информация об упаковке и помощи в погрузке
СОБСТВЕННАЯ ДОСТАВКА ПО МОСКВЕ И МО
1. Сроки (при оплате наличными — 1-2 рабочих дня / при безналичном способе оплаты)
2. Стоимость в пределах МКАД (указание минимального порога цены для получения бесплатной доставки)
3. Дни и время доставки / есть ли до 10:00 доставка / есть ли ночная доставка / работает ли в выходные / можно ли заказать доставку точно ко времени
4. В день доставки / за день до доставки в период с 09:00 до 12:00 звонит ли представитель курьерской службы для согласования времени
5. Есть ли смс-оповещение о загрузке машины и плановое время приезда / есть ли смс-информирование о том, что водитель подъезжает
6. Есть ли помощь в разгрузке товара
7. Сколько минут на разгрузку
8. Есть ли экспресс-доставка. Если да, то какие сроки/сколько стоит
9. Есть ли свой автопарк / какие машины
КУРЬЕРСКАЯ ДОСТАВКА ЗА МКАД И В ПОДМОСКОВЬЕ
1. Сроки
2. Стоимость доставки до 5 км за МКАД
3. Дни и время
ОТГРУЗКА В ТРАНСПОРТНЫЕ КОМПАНИИ
1. Как доставляется до транспортной компании (платно/бесплатно)
2. Как передаются документы (например, отгрузочные документы вложены в груз, так что при доставке они не потеряются. Электронные версии документов пересылаются на почту сразу же как только зачислены деньги).
3. Какие компании
4. Стоимость
5. Сроки
6. Есть ли рассылка о статусах продажи: смс о том, что деньги поступили, что товар начал собираться, что погружен водителю, что отгружен в ТК.
7. Делаются ли фотографии как было отгружено в транспортную компанию, чтобы клиент мог требовать с Транспортной компании неустойку в случае порчи упаковки
8. Есть ли смс уведомления о том, что товар доставлен в ваш город транспортной компанией
9. Где отслеживать заказ
ДОСТАВКА ПОЧТОЙ РОССИИ
1. Сроки доставки по России
2. Стоимость доставки по России
3. Сроки доставки по миру
4. Стоимость доставки по миру
5. Требование внести 100% предоплату
6. Где отслеживать заказ
7. Срок хранения посылки на почте
ПУНКТЫ ВЫДАЧИ ЗАКАЗОВ (НАПРИМЕР, BOXBERRY)
1. Сроки доставки
2. Стоимость доставки
3. Требование внести 100% предоплату
4. Где отслеживать заказ
Источник: https://www.facebook.com/ilyana.levina/posts/1443296459139769 (автор Ильяна Левина)
tgstat.ru
Поиск LSI-ключей через Яндекса и Гугла
1. Подсказки ПС
Под подсказками ПС понимают перечень выпадающих словосочетаний и слов при вводе нужного термина в поисковую строку. Это очень удобный и действенный способ увидеть, что именно хотят найти пользователи в сети. Но и в тоже время не самый результативный.
Сначала Яндекс. Вариации запросов на тему LSI тут дают неплохой перечень.
Яндекс предлагает обратить внимание на запросы «LSI ключевые слова собрать» и на две более естественные формулировки «как искать и как подобрать LSI-запросы». При попытке ввести «сбор LSI» Яндекс рекомендует использовать еще один вариант тематического запроса: «LSI-семантика».
Теперь Гугл. У него в плане узкотематических подсказок все грустно. Далее одного введенного термина процесс не идет. Выкладываю только один скрин, так как везде результат схож.
Вывод. Подсказки ПС в качестве подбора вспомогательных словосочетаний для ЛСИ-текстов можно использовать достаточно эффективно. Но предпочтение лучше отдавать Яндексу, как более интеллектуальному в этом вопросе ресурсу.
2. Блоки поисковиков «Вместе с «…» часто ищут»
Этот способ поиска запросов для lsi-контента самый популярный. Проверяем насколько он хорошо. Два варианта перебора не дали никаких результатов. Третий предложил ознакомиться с темами.
Здесь предлагается то же, что и в подсказках Яндекса на тему поиска LSI-запросов. Гугл в этом вопросе оказался добрее: он даже предложил сервисы для сбора LSI-ядра!
На каждое введенное словосочетание были предложены альтернативные варианты. В частности Google надоумил использовать еще один подходящий термин. LSI-ядро. Сбор LSI-ядра.
Вывод. Блок «с этим ищут» использовать можно и нужно. Но только в качестве дополнительного источника генерации ключей. В сочетании с другими инструментами.
Генерируем LSI-запросы сервисами Яндекса и Гугла
3. Вордстат Яндекс
Самый простой и быстрый способ подобрать ключи по любой теме – Вордстат. Здесь есть даже отдельный блок для вывода схожих тематических запросов. Но вот только работает он исключительно по распространенным тематикам.
Вот что получилось с моей темой.
И даже более глобальное изучение темы особо ситуацию не спасло.
Вывод. Вордстат хорош только при работе с конкретными формулировками, в качестве сервиса подбора LSI-ключей он годится не очень.
4. Google Keyword Planner
Для работы с Планировщиком потребуется учетная запись AdWords и введение данных для создания рекламного объявления. Платежную информацию на последнем этапе можно не указывать, а после прохождения всех шагов просто деактивировать проект. Хотя без оплаты все равно ничего работать не будет.
Планировщик ключевых слов находится в «Инструментах».
Выбираем «Поиск ключевых слов и получение статистики запросов». В блоке «по фразе, сайту или категории» вводим нужную нам комбинацию. Нажимаем «Получить варианты».
Эксперименты с тестируемыми словосочетаниями на дали ничего интересного. Все подсказки по lsi-теме свелись к копирайтингу, написанию текстов, биржам и прочим словам, которые были бы более интересны при создании статьи о lsi-контенте. Не помогли и провокации «как собрать/подобрать», «как найти» и прочие.
Зато для «копирайтинга» было предложено 354 тематических ключа.
Вывод. Планировщик удобен для работы с популярными словами. Сервис понравился выводом статистических данных по каждому ключу: «среднее число запросов в месяц» и «уровень конкуренции». Что логично, ведь сервис работает все-таки для конкретных целей: подготовки качественных рекламных объявлений.
Как найти LSI-поисковые запросы сторонними сервисами
5. Serpstat (в прошлом назывался Prodvigator)
Сервис является многофункциональным, и одна из его возможностей – подбор фраз, подсказок, изучение семантики. Есть платные и бесплатные тарифы для работы с запросами:
- 30 запросов – бесплатно;
- до 300 – 19$ в мес.
- до 1000 – 69$ в мес.
Для начала работы нужно пройти регистрацию и запустить «анализ ключевых слов. По интересующим меня терминам картина получилась никакая. Все грустно и печально.
Чтобы проверить качество работы сервиса, ввела более популярный запрос «копирайтинг». Здесь все гораздо лучше. Появились и популярные фразы, и ключевые, и возможность оценить данные разных ПС.
Вывод. Сервис Serpstat хорош и работает даже в бесплатном режиме неплохо, но для сбора LSI-семантики на узкую или низкочастотную тему не подходит.
6. МегаИндекс (СЕО-анализ сайта)
Добраться до аналитического сервиса непросто. С главной страницы переходим в «Продукты», потом в «Приложения». Там выбираем «Анализ текста» и экспериментируем. Регистрироваться нигде не надо.
Для начала работы требуется только вести интересующий запрос.
Сервис анализирует все страницы ТОПа и предлагает сопутствующие введенному термину одиночные слова.
Результат очень достойный. МегаИндекс подчеркивает актуальность многих моментов – например, текущий 2017 год. Как формировать LSI-ядро в 2017 году? Какие новые требования к текстам озвучивают ПС? Как повлияли на качество текстов SEO-события 2017 года – фильтр Баден-Баден и Яндекс.Королев? Просто кладезь готовых подсказок.
Благодаря сервису легко выделяются слова для составления полноценных тематических фраз. Что можно получить по данной теме?
- фразы для LSI-текста
- слова для LSI-контента
- LSI-ключи для оптимизации;
- поисковые запросы под LSI;
- список LSI-фраз для ТЗ копирайтера;
- LSI-подсказки для Яндекса и т.д.
Этот сервис единственный из всех отошел от LSI-копирайтинга и «предложений» его написать и дал подборку именно в заданном тематическом направлении.
Вывод. Отличный и очень простой сервис, по которому LSI-фразы сможет подобрать любой копирайтер самостоятельно.
Дополнительный бонус ресурса: ТЗ для копирайтера на LSI-контент, представленное не только набором значимых слов, но и разбивкой их употребления по title, тексту и ссылкам.
7. Pixel Tools
Пиксель Тулс требует регистрации для новых пользователей и только потом открывает доступ к части своих сервисов. Что тут заслуживает внимания? Многое!
Все сервисы Pixel Tools позволяют анализировать не один запрос, а сразу несколько. Это расширяет варианты итогового списка. Также огромный плюс – выбор доступных даже новичку возможностей. Для сбора семантики для LSI-статей подходят сразу несколько.
- Сервис «ТЗ на SEO-копирайтинг».
- Сервис «Оценка интента запроса». В итоговой таблице выводятся слова, задающие семантику.
- Сервис «Поисковые подсказки Яндекса» и аналогичный для Гугла. Результаты Яндекса гораздо лучше, чем собирать все подсказки «ручками».
А Гугл предлагает слишком много англоязычных вариантов.
Вывод. Просто отличный ресурс, который помогает собрать и тематические запросы, и LSI-подсказки. Причем ориентируется сразу на блок ключей, а не на один. Жаль, что платный.
8. Ultimate Keyword Hunter
Эту программу я нашла в одной статье, как рекомендованную для сбора lsi-подсказок. Она отличается от рассмотренных выше ресурсов тем, что подлежит скачиванию на компьютер. Ссылка для загрузки установочного файла высылается на почту, после чего программу надо закачать на жесткий диск и установить.
Программа англоязычная, проводит поиск подсказок LSI с ориентиром на Гугл. Работать с ней просто, но особой полезности в ней я не нашла. Ниже скрины для тех, кто захочет потестить этот продукт.
Ultimate Keyword Hunter генерирует отдельные слова и двух-, трех, четырехсловные фразы, но толку от них немного. Взяты они с сайтов, которые программа демонстрирует списком на промежуточном этапе поиска. Словосочетания выдернуты из контекста, поэтому смотрятся нелепо, а, главное, плохо ассоциируются с анализируемым запросом.
Вывод. Программа неудобна для поиска и сбора ключей для LSI-текстов.
9. Сервисы Арсенкина (arsenkin.ru)
Сервис Арсенкина предлагает «Парсинг подсветок Яндекса и сбор тематических слов». Работает очень просто.
- Вводишь интересующий запрос – до 50 фраз
- Ставишь регион проверки
- Устанавливаешь «глубину» – Топ-10, Топ-20 или Топ-50
- Нажимаешь «найти подсветки»
- Смотришь таблицу «слова, задающие тематику»
Но еще более интересен новый сервис «Парсинг тегов H1-H6 по конкурентам из ТОП-10». Почему интересен? Потому что:
- отображает структуры статей, написанных на эту же или очень близкую тему;
- показывает ключи, которые использованы в заголовках и подзаголовках;
- помогает увидеть логику текстов конкурентов.
Система позволяет проводить анализ по запросу или списку введенных URL.
Вывод. Отличный сервис, который облегчает работу не только в плане генерации LSI-фраз, но и помогает сформировать правильную структуру статьи при необходимости.
Просто и быстро ищем правильные LSI-ключевые слова
10. LSI Graph / LSI Keyword Generator
Название сервиса заявлено как «генератор LSI-ключей». Работать с ресурсом просто: вводишь словосочетание для анализа, подтверждаешь «я не робот» и нажимаешь кнопку «генерировать». Все на английском языке, но интерфейс понятный.
Итог работы: по запросу «lsi-ключи» не предложил совсем ничего. На тест «копирайтинг» сгенерировал множество синонимов и околотематических фраз.
Вывод. Подходит для работы с ВЧ-запросами и позволяет подбирать лси-ключи для более глубокого погружения в тему.
11. Ubersuggest tool
Принцип работы аналогичный сервису «LSI Graph»: на первой же странице предлагают ввести анализируемое слово и нажать «сгенерировать». Ubersuggest tool отлично справляется с любыми запросами, но интереснее всего картина по популярным терминам.
Сервис собирает все LSI-подсказки и распределяет их по алфавиту. Первое слово в блоке – основное, последующее – на «а», «б», «в» и далее. В самом начале есть подборки по наиболее распространенным вариантам.
Очень подробный и емкий сбор LSI-семантики из всех полученных до этого.
Вывод. Если нужен максимальный охват темы по требованиям LSI, то Ubersuggest tool – то, что нужно.
Поиск LSI-ключей – алгоритм работы копирайтера
Коротко о главном. Тем, кто не хочет разбираться со всеми сервисами и читать вышеизложенный объемный материал, предлагаю простой алгоритм работы:
- Планирование структуры текста (сервис Арсенкина по анализу H1-H6 в ТОПе)
- Подбор LSI-ключей сервисом МегаИндекс, подсказками Яндекса, блоком «с этим ищут» или при помощи Пиксель Тулз
- Использование других сервисов сбора lsi-подсказок по желанию и при необходимости
Вот, собственно, и все. Фразы для LSI-текста подобраны, структура продумана – основа для качественного экспертного контента заложена. Удачной работы!
Сделать заказ копирайтеру.
kaverina80.ru
Как найти пессимизацию страниц/запросов на сайте
Конечно, можно попробовать на глаз определить переоптимизрованные страницы, но, к сожалению, это не всегда получается. Я сам несколько раз так обжигался: вроде бы думаешь, что тут перебор ключевых слов, убираешь тут, убираешь там. Ждешь с нетерпением несколько апдейтов и бац! Страница улетает прямо на самое «дно». К сожалению, такое тоже бывает и глаз далеко не всегда верный инструмент.
Поиск запросов
Я всегда рекомендовал и рекомендую снимать регулярно позиции сайта, не так важно каким способом, важна регулярность (к слову, мы пользуемся Топвизором, раньше чаще пользовались Allpositions). Но вы должны учитывать, что позиции очень сильно скачут, есть такое понятие как рандомизация выдачи и не стоит делать выводы только по одному-двум апдейтам. Рекомендую снимать позиции каждый день, чтобы видеть полную картину, ну или хотя бы в дни апдейта Яндекса, но точно не реже. И вообще, в нынешнее время колебания позиций в Яндексе — это абсолютно нормальное явление, все уже к этому привыкли. Вот пример скачков позиций:
Если позиции скачут довольно сильно то верх, то вниз, динамику лучше отследить в верхних точках «волн», то есть сравнивать положительный апдейт с положительным, отрицательный с отрицательным. Тогда будет видна динамика, общее настроение наших позиций и куда они стремятся:
Теперь понимаете, наверное, почему я рекомендую снимать позиции часто. Представьте, вы снимаете позиции раз в месяц, в прошлом месяце сняли во время пика «волны», а в этом в тот день, когда позиции оказались на низшей точке. Вы можете ошибочно начать рвать волосы. Не надо. Жалко их. ? Это как раз могло бы произойти, если мы бы не владели достаточно полной информацией. Ну и не надо после первого неудачного апдейта бегом идти все исправлять. Нужно немного выждать.
Вот пример графика видимости сайта нашего клиента, который продвигается у нас почти 2 года, угадайте в какие дни все мы начинали паниковать? ?
Если мы поддались бы панике и начали бы на сайте предпринимать срочные меры по исправлению чего-то там, скорей всего было бы не так все классно, как сейчас. Повторюсь, в моменты обвала, если у вас нет никаких уведомлений в панели вебмастеров о наложенных фильтрах, не нужно сразу что-то предпринимать. Лучше выждать 2-3 апдейта и только потом приступать к каким-то телодвижениям.
Поиск страниц
Также, если изначально документ на сайт добавлялся переоптимизированным, то скорей всего вы не увидите скачков позиций на этих группах, страница изначально будет болтаться где-то в конце. Если после 3-4 апдейтов хорошо оптимизированная страница так и не вылезла ориентировочно ТОП-30-50, то скорей всего там есть переоптимизация (опять же порог разный для разных тематик с разным уровнем конкуренции).
В съемщиках позиций находим запросы, которые просели и сохраняем себе их релевантный URL. Дальше переходим в Яндекс Метрику, во вкладку Отчеты -> Стандартные отчеты -> Источники -> Поисковые системы:
Оставляем график только от Яндекса и сегментируем по странице входа. Для этого нажимаем на «Визиты, в которых» -> Поведение -> Страница входа и там прописываем URL, где у нас просели позиции:
И мы увидим изменения трафика с Яндекса на данную страницу:
Вы сами на графике видите, как упал трафик с Яндекса на страницу. Примечание: конечно, если у вас запрос сезонный, то этот метод не совсем подойдет. Ну или если только вы сравните все относительно сезонности запроса.
Также может быть такое, что на всем сайте позиции в целом растут, но на нескольких страницах произошла просадка. Может быть даже такое, что просела сильно трафикогенерирующая страница, поэтому в целом динамика посещаемости сайта — отрицательная, но по факту общая видимость сайта увеличилась: больше страниц начали приближаться к ТОПу. Просто одна страница портит общую статистику, а это вообще не критично, если это выявить, скорректировать ее и заново вернуть в ТОП. К сожалению, многие не изучают такие вещи, не разбираются почему падает трафик и т.д.
Подобная просадка как на графике выше может быть как в следствии правок на сайте/на странице, так и в результате обновлений алгоритмов поисковиков. Они постоянно что-то «подкручивают», чтобы результат выдачи по их мнению был «чище». Найдя такие URL, произведя определенные действия, о которых я расскажу в следующем уроке, можно вернуть трафик или даже увеличить его.
Также может быть, что вместо продвигаемой страницы, которая изначально должна была быть в ТОПе по группе запросов, вылезла нерелевантная страница — это также верный признак переоптимизации (ну или снова может быть недостаточно оптимизации). Чтобы увидеть такие страницы обязательно нужно прописывать целевые URL запросам в съемщиках позиций, чтобы видеть та ли страница у нас вылезла в поиске. Прописывать целевые урлы проще простого, главное не лениться, вот на примере Топвизора (слева от запроса тыкаем на «черточку» и все):
В случае, если вылезла не та страница по нужным запросам, мы увидим заметное уведомление, что что-то не так:
Если «вылезла» не та страница, то, во-первых, из-за того, что она не предназначалась этим запросам, вряд ли она попадет в ТОП. Во-вторых, даже если по каким-то причинам попала в ТОП-10 или ТОП-20, скорей всего поведенческие факторы на этой странице окажутся плохими, и страница «откатится» вниз, ну и дополнительно конверсия на странице будет никакой.
В результате у нас появился список предполагаемых пессимизированных страниц или страниц, имеющие заспамленные запросы. Теперь мы можем дополнительно проверить, есть ли на них переспам или переоптимизация. Ну и также бывает, что съема позиций не производилось и информации, полученной выше, нет.
Получится 2 файла. Один с переспамом:
Второй с переоптимизацией:
Напоминаю, переспам — пессимизируется только запрос, переоптимизация — вся страница.
Нахождение запросов с переспамом
Если проседает только запрос (или он изначально находится на плохой позиции), можно проверить его на переспам. Для этого попробуйте поменять словоформу запроса (то есть использовать ключ в другом падеже, к примеру) или поменять порядок слов в запросе (пример: «купить телевизор» => «телевизор купить» или «купить телевизоры»). Если позиции сильно изменяются (к примеру, на 12 позиций) в положительную сторону, значит сильновероятно, что первоначальный запрос словил переспам.
Проверка страниц на переоптимизацию
Теперь по второму файлу, нужно проверить URL на переоптимизацию. Находим сайт, который на ненамного выше вашего сайта (на несколько пунктов) и вбиваем в Яндекс следующее:
поисковый запрос site:vashsite.ru site:sravnivaemyj-sajt.ru
Если мы в итоге оказались выше данного сайта (хотя в обычной выдаче были ниже), то сильновероятно, что на нашей странице присутствует переоптимизация.
Проверка страниц на переоптимизацию автоматическим методом
Конечно, можно проверять ручками все это дело, но можно пойти другим путем. Совершенно бесплатно можно проверять документы на переоптимизацию в «Пиксель Тулс». Он все сделает сам. Очень удобно.
Примечание: Пиксель Тулс не будет проверять страницу на переоптимизацию, если проверяемый запрос находится в ТОП-5 или за ТОП-100.
Для примера выше я взял как раз запрос, относящийся к странице, где и произошла просадка с Яндекса:
Очень нужная информация по данному URL — не так ли?
Еще один сервис, который подсказывает страница переоптимизирована или нет — это сервис Арсенкина.
Заключение
Если находить подобные проблемы на сайте, их можно точечно устранять и влиять суммарно на весь трафик. Более того, бывают «шаблонные случаи», когда ты находишь переоптимизацию и, скорректировав ее, не одна страница «вылезает», а целая пачка, на которые влиял один и тот же фактор.
Ну а о том, что же делать, если все-таки вы обнаружили переспам или переоптимизацию на страницах сайта, я рассказал в следующем уроке, который уже опубликовал. Чтобы не пропустить следующие уроки, подпишитесь на бесплатную рассылку уроков (она расположена чуть ниже или в сайдбаре) и вы первыми будете в курсе всех свежих постов.
Остались вопросы? Пишите в комментариях, отвечу всем, впрочем как и всегда. ?
Ну и мне было бы очень приятно, если вы понажимаете на социальные кнопки ниже и поделитесь с друзьями в социальных сетях данным постом. ?
Удачи!
wpnew.ru
С чего начать поиск LSI-фраз
Первый этап для составления ТЗ на тексты с использованием LSI – это сбор основных ключевых фраз, которые соответствуют тематике сайта.
Рассмотрим порядок подбора LSI-фраз для интернет-магазина цифровой техники, продающего в том числе смартфоны:
1. Собираем ядро основных ключевых слов в Яндекс.Вордстате.
2. Проводим кластеризацию запросов и распределяем их по страницам с помощью для группировки. Выделяем несколько значимых для продвижения групп.
3. В этом же сервисе подбираем LSI-фразы. Цель интернет-магазина – продажи, поэтому берем за основу коммерческие запросы – «купить», «цена», «доставка» и т.д. Одним из очевидных ключей, определяющих поиск LSI-фраз в данной тематике, является запрос «купить смартфон».
Таким образом понимаем, что на странице со смартфонами нужно разместить следующий контент:
- цены смартфонов;
- описание и технические характеристики моделей;
- условия приобретения;
- адреса магазинов и другие способы покупки и доставки;
- форма для онлайн-заказа устройства;
- отзывы пользователей.
Основные сервисы для поиска LSI-фраз
Поиск LSI-фраз любыми сервисами основан на анализе страниц сайтов, размещенных в ТОП 10-50 выдачи Яндекса. Данный метод оптимизации контента не работает в Google.
1. Бесплатный онлайн-сервис для поиска фраз от . Очень удобный и простой, без лишней информации – только подбор необходимых фраз.
2. Бесплатный сервис «Арсенкин Тулс», в котором для анализа можно использовать до 50 слов за одну итерацию, а также настраивать парсинг по региональности и глубине (ТОП-10, ТОП-20 и ТОП-50).
В результате использования данного сервиса дополнительно можно получить:
- LSI-фразы и количество их повторений;
- лемматизированные слова из запросов – то есть слова и фразы, задающие тематику.
3. Платный сервис для сбора поисковых подсказок “Rush Analytics”.
Здесь основной функционал – это работа с ключами. Бонусом можно получить часто встречающиеся у конкурентов дополнительные слова (LSI). В отчете получаем информацию, какой объем текста необходимо разместить на посадочной странице, сколько вхождений каждого запроса добавить или убрать.
Как работать с LSI
LSI-фразы – это направляющий вектор статьи. То есть работа с ними не похожа на оперирование обычными ключами.
Поясним на примерах.
1. В сгенерированном списке LSI-фраз присутствует слово «цена», означающее, что на странице важно разместить цены на товар или услугу. Добавление в текст фразы в духе «мы предлагаем доступные цены» не сработает.
Корректное оформление цен может выглядеть так:
2. LSI-фраза «отзывы». В этом случае на странице советуем разместить реальные отзывы клиентов компании, которые могут положительно повлиять на ранжирование сайта.
3. Чтобы добавить LSI-фразы «онлайн-заявка» и «заказать услугу», на продвигаемых страницах необходимо создать форму заказа или обратной связи, в которой пользователь сможет оставить нужные для вас данные.
С помощью LSI сайт можно наполнить дополнительным полезным контентом (отзывами, онлайн-формами, фото и т.д.), востребованным пользователями и сообщающим поисковым системам о высокой релевантности вашего сайта.
Тексты, которые предлагает своим клиентам iSEO, основаны на вхождениях как специально подобранных ключевиков, так и дополнительных LSI-фраз. Поисковое продвижение учитывает работу с контентом поисковых роботов, но основано в первую очередь на поведенческих факторах и оценках живых пользователей. Только совокупность двух этих факторов позволяет говорить о качественной оптимизации сайта.
www.iseo.ru
Организация работы
Jira dashboards
— система управления проектами, которая позволяет работать по Agile. В системе работает scrum-доска, благодаря которой можно легко увидеть стадии выполнения задач. Основное достоинство — гибкость и настраиваемость. Рабочий процесс представлен в виде набора задач, которыми можно управлять вместе или по отдельности. Каждая задача — отдельный элемент, параметры которого можно настроить.
Для создания семантического ядра
Яндекс.Вордстат
Онлайн-сервис от Яндекса собирает данные о частоте обращений пользователей по определенным запросам. Пользоваться данными может любой. По каждому ключевому слову ведется своя статистика — можно узнать частоту запроса, сезонность, популярность в определенном регионе. Также сервис предлагает запросы по сходной тематике. «» — базовый инструмент для сбора семантического ядра. На его основе работает множество программ и онлайн-сервисов.
Keyword Planner
— инструмент от Google для работы с ключевыми словами. Позволяет подбирать, группировать и анализировать ключевые слова из статистики поисковой системы.
Функции:
- Поиск новых ключевых слов.
- Анализ и рекомендации — система предлагает отчет с советами по улучшению рекламной кампании.
- Расширение семантического ядра на основе существующего списка запросов.
Key Collector
— мощная программа для сбора семантического ядра.
- Собирает ключевые фразы и подсказки.
- Определяет ценность и стоимость запросов.
- Определяет релевантные страницы.
- Выдает рекомендации для перелинковки.
- Снимает позиции в поисковой выдаче.
- Определяет конкурентность и сезонность запросов.
Достоинства: 70 параметров оценки поисковых запросов, 4 варианта работы с Wordstat, можно интегрировать со ссылочными брокерами.
Rush Analytics
— сервис для сбора и кластеризации семантического ядра. Позволяет создать грамотную структуру сайта, которая отвечает требованиям поисковым систем.
Возможности:
- Сбор ключей из Вордстат.
- Определение их частотности.
- Сбор подсказок.
- Автоматическая группировка по кластерам.
- Проверка позиций по запросам.
- Проверка индексации сайта.
- Анализ текста.
Сервис позволяет создавать грамотные технические задания для копирайтеров.
Системы аналитики
Яндекс.Метрика
собирает информацию об аудитории сайта (возраст, географию, устройства), а также позволяет оценивать конверсии и поведение пользователей.
Что предоставляет счетчик:
- Источники трафика.
- Посещаемость: визиты, посещения, возвраты на сайт.
- Поведение пользователей: клики, маршруты, целевые действия.
- Данные о пользователях: география, демография, устройства.
- Популярность определенных страниц, страницы входа и выхода.
- Карта путей пользователей — можно визуально оценить, как они перемещаются по вашему сайту.
Уникальные возможности:
- Вебвизор — записывает действия некоторых пользователей на сайте.
- Карта кликов и карта ссылок — покажет, с какими элементами на сайте чаще всего взаимодействует пользователь.
- Интеграция с Яндекс.Директом и Я.Маркетом.
- Анализ форм — позволяет оценить удобство форм на сайте.
Google Analytics
— система аналитики от Google. Отличается некоторой сложностью настройки, но в то же время широким функционалом.
Возможности:
- Позволяет оценить качество мобильного трафика.
- Проанализировать конверсию сайта.
- Оценить каналы трафика: рекламные, медийные, социальные, поисковые.
- Формирует отчеты в режиме реального времени.
- Анализирует работу ресурса и его эффективность: скорость загрузки, маршруты пользователей.
Основное достоинство — гибкая и тонкая настройка аналитики, однако она требует опыта и навыков.
Анализ конкурентов
SEMrush
— сервис для анализа конкурентов по критериям: SEO, платный трафик, социальные сети, контент и PR-мероприятия.
Специалистам доступны:
- Анализ и оценка обратных ссылок.
- Анализ конкурентов.
- Мониторинг позиций по запросам.
- Сбор списка запросов.
- Аудит технической оптимизации.
- Рекомендации по увеличению органического трафика.
Основное назначение сервиса — анализ конкурентов. Вы можете узнать:
- Бюджеты на проведение рекламных кампаний.
- Запросы, по которым рекламируются в Google AdWords ваши конкуренты.
- Стоимость клика, количество трафика и текст рекламного объявления конкурента.
- Посещаемость сайта и позиции по определенным ключевым словам.
SEMrush позволяет находить низкочастотники — в базе порядка 95 млн слов. Можно сравнивать несколько сайтов по определенным параметрам.
Анализ ссылочной массы
Ahrefs
— сервис для анализа внешней оптимизации сайта. Несмотря на то, что он является коммерческим, ряд функций доступны бесплатно.
- Страны и доменные зоны, которые чаще всего ссылаются на ваш сайт.
- Поиск обратных ссылок по времени размещения.
- Список самых часто ссылающихся доменов.
- Данные по ссылкам на поддомены.
- Страницы сайта, на которые чаще всего ссылаются.
- Экспорт и просмотр анкор-листа.
- Поиск источников и подсчет количества обратных ссылок на сайт.
Fast Trust
— сервис, который собирает порядка 30 параметров сайта из разных источников. Самые важные — траст и заспамленность сайта, которые оцениваются по стобалльной шкале. Также оценивается посещаемость, статистика из Alexa, SeoMoz, MajesticSEO, наличие в каталогах, тИц и PR, социальная активность и данные о ссылках из сервиса Solomono.
Основное применение — экспресс-анализ сайтов-доноров, что позволяет значительно сэкономить время. Затем избранные сайты можно оценить визуально. Предусмотрена система фильтрации, которая дает возможность создавать выборки по определенным параметрам, сортировать и группировать результаты.
Программа позволяет выгрузить весь список обратных ссылок и проверить их качество. Далее можно будет воспользоваться инструментом Disallow Links.
Для анализа оптимизации
Google Page Speed Insights
— сервис для быстрого теста разных версий страниц сайта. Анализирует скорость загрузки, оптимизацию технической части, дает рекомендации о том, как можно улучшить результаты. Отдельно оценивает версии для компьютеров и для мобильных устройств.
Gtmetrix
— один из популярных инструментов для измерения скорости загрузки сайта.
Показатели:
- Скорость загрузки страницы и ее отдельных элементов.
- Время загрузки.
- Размер страниц.
- Оценивает каскадный трафик.
- Измеряет число HTTP-запросов.
Netpeak Spider
— программа для быстрого комплексного аудита сайта.
Основные функции:
- Определяет порядка 60 ошибок внутренней оптимизации.
- Проверяет 50 параметров SEO.
- Анализирует исходящие и входящие внутренние ссылки.
- Находит дубли страниц, метатегов, заголовков.
- Проверяет на битые ссылки и редиректы.
- Рассчитывает внутренний вес страницы.
Основное достоинство — гибкая настройка сканирования, которое учитывает robots.txt, Meta Robots, X-Robots-Tag, Canonical. Предусмотрен экспорт в Excel.
Xenu’s Link
— сервис, который позволяет находить битые ссылки, отсутствующие метатеги и проверяет другие параметры, которые влияют на оптимизацию.
- Находит изображения с незаполненными тегами Alt.
- Проводит аудит внутренней перелинковки.
- Ищет страницы, на которых слишком много исходящих ссылок.
- Показывает страницы со слишком большим уровнем вложенности и временем отклика.
- Находит повторяющиеся заголовки страниц в метаописаниях.
- Формирует карту сайта в XML формате для статических страниц.
Основная задача программы — поиск битых ссылок среди фреймов, скриптов, стилей и изображений, проверка HTML- и PHP-ссылок.
Комплексные инструменты
Coolakov tools
— бесплатный кластеризатор запросов для создания семантического ядра. Разбивает запросы на группы. На основе похожести запросов из ТОП 10 Яндекса определяет, какие запросы нужно продвигать на одной странице, а для каких лучше выбрать отдельную страницу.
Arsenkin tools
— инструмент для подбора LSI-фраз. Позволяет найти дополнительные слова, которые стоит использовать для полного раскрытия темы. Помимо этого предлагает целый набор дополнительных инструментов.
Возможности:
- Проверка на дублирование сниппетов.
- Проверка на фильтры переоптимизации и аффилированности.
- Определяет понижение сайта из-за действия алгоритма «Минусинск» от «Яндекса», который определяет сайты, использующие покупку seo-ссылок для продвижения сайта.
- Парсинг подсказок из выдачи «Яндекса».
- Выгрузка сайтов с первой страницы «Яндекса».
- Визуальный HTML-редактор.
- Парсинг заголовков конкурентов из выдачи.
- Лемматизация текста.
SE Ranking
— платформа для полноценного аудита и анализа сайтов. Must have для владельцев бизнеса, агентств, маркетологов и SEO-специалистов.
Основные возможности:
- Мониторинг — позволяет отслеживать любые изменения на вашем сайте и сайтах конкурентов.
- Аудит поисковой оптимизации — показывает, насколько страница оптимизирована под ключевой запрос.
- Поиск запросов — сервис обещает более 3 миллиардов слов и подсказок
- Составление маркетингового плана — можно ставить пользовательские цели, проводить анализ сайта, пользоваться чек-листом для SEO.
- Кластеризация — позволяет профессионально группировать поисковые запросы.
- Инструменты для SMM — автопостинг и анализ ключевых показателей в соцсетях.
Одна из «фишек» — конструктор отчетов, который значительно упрощает работу специалистов на большом количестве проектов.
Webmasta
Помимо распространенных сервисов для анализа и аудита сайта, имеет в своем арсенале ряд уникальных инструментов. Например, генераторы — они значительно упрощают работу. Есть генераторы метатегов, ключевых слов с сайта и из текста, HTML-ссылок, ссылок для бирж, файла robots.txt. Также Webmasta позволяет проанализировать поведенческие факторы, внешние и внутренние ссылки, редиректы сайта, просмотреть заголовки серверов.
PR.CY
— большой набор различных инструментов для проверки и анализа сайтов. Сервис предназначен не только для SEO-специалистов. Полезные функции здесь найдут копирайтеры, маркетологи, веб-мастера, администраторы сайтов и серверов.
Для SEO-специалиста здесь представлен следующий набор инструментов:
- Анализ сайтов по основным показателям.
- Анализ и проверка контента на уровень оптимизации.
- Анализ Ципфа — позволяет определить естественность текста.
- Аудит ссылок — внутренних и внешних.
- Увидеть сайт глазами поискового робота.
- Проверка позиций.
- Проверка скорости загрузки сайта и другие.
Сервис позволяет проводить автоматический мониторинг вашего сайта и сайтов конкурентов. Это позволяет отслеживать изменения и быстро к ним адаптироваться.
«Пиксель Тулс»
— набор инструментов для всестороннего анализа сайта. Большинство из них бесплатны. Сервис позволяет оценить оптимизацию сайта (внутреннюю и техническую), провести аудит и аналитику, собрать семантическое ядро и позиции, проверить сайт на различные фильтры.
Возможности:
- Проверка фильтров: на переоптимизацию, на аффилиаты, комплексная проверка.
- Работа с семантическим ядром: поисковые подсказки, данные из Яндекс.Вордстата, список запросов из Яндекс.Вебмастера.
- Анализ запросов: коммерциализация, лемматизация, локализация и геозависимость, группировка запросов по ТОПу, оценка интента, поиск и удаление дублей.
- Анализ внешней оптимизации: непот-фильтр, ссылочная масса, социальные сигналы.
- Проверка технической части: XML-карта сайта и ответов сервера, размер и скорость загрузки документов, поиск зеркал и поддоменов.
- Инструменты внутренней оптимизации: подготовка ТЗ для копирайтеров, проверка уникальности текстов, семантический анализ, оценка качества оптимизации, анализ структуры сайта, SEO-тегов для URL, визуальный HTML-редактор.
Плюсы: много инструментов в одном, облачный сервис — работает везде, не просит капчи и лимитов XML, есть набор бесплатных инструментов, есть встроенные чек-листы.
***
В статье перечислены сервисы, которые могут пригодиться SEO-специалисту любого уровня. Часть из них дублируют друг друга, а некоторые комплексные покрывают практически весь спектр потребностей. Подобрать свой «ящик с инструментами» можно лишь в процессе работы — тестируйте разные сервисы и определите, что вам больше подходит. Отрасль постоянно развивается — набор будет пополняться.
www.seonews.ru