Как сделать аудит сайта


Чистка от исходящих ссылок

Иногда с сайта стоит очень много исходящих ссылок, которые даже не закрыты. Проверьте сайт на исходящие ссылки каким-нибудь из способов, описанных здесь, лучше даже составить полный их список Excel-файлов со столбцами донор-акцептор (с какой страницы стоит ссылка и какая именно). Эти ссылки нужно либо убрать, либо закрыть от индексации.

Есть ли стили заголовков h, списков

Иногда случается такое, что на сайте не выполнены буквально элементарные вещи. А именно — нет стилей для подзаголовков и списков. Вам нужно найти страницы с соответствующими тегами, и пометить, имеются ли эти стили. Если нет — надо их добавлять в обязательном порядке. Но они должны быть прописаны в css-файле, а не вот так:

Как делать технический seo-аудит сайта

Нужно дополнительно проверить, чтобы такого не было.

Код ответа 404


Далее смотрим, отдает ли несуществующая страница код ответа сервера 404. Вводим рандомный url вроде adamsandler.ru/fddfdffrrrr и смотрим, какой код ответа она отдает. Если не 404 — надо исправлять.

Битые ссылки

Есть такие сайты, где очень много во-первых битых (нерабочих) ссылок на свои же страницы, а кроме того, еще и на другие ресурсы ссылки не работают. Можете также посмотреть мою статью про битые ссылки.

200 ОК

Все страницы, найденные по мере обхода сайта краулером вроде XENU, должны отдавать код ответа 200 ОК. Если на сайте много 301 перенаправлений или других неправильных кодов ответа, надо составлять список таких страниц и предоставлять рекомендации по исправлению ошибок.

Проверка скорости загрузки сайта

Нам также нужно проверить скорость загрузки страниц сайта. Берем для теста главную и пару продвигаемых страниц. Лучше всего будет сравнить эти показатели с 3-4 ведущими конкурентами. Проверить можно по Checktrust, Pingdom Tools или Google PageSpeed Insights (а лучше все вместе). Если наши страницы грузятся дольше — надо исправлять.

Проверяем на разных разрешениях

Смотрим, как сайт выглядит на разных разрешениях, есть ли мобильная версия. Нам нужно, чтобы на всех устройствах он отображался корректно. Также не лишним будет проверить, весь ли дополнительный функционал сайта работает в разных его версиях.

Корректность отображения сайта в различных браузерах


Следующая важная часть технического seo-аудита сайта — это посмотреть, как он отображается в разных браузерах. Это, прежде всего, Internet Explorer, Mozilla Firefox, Opera, Google Chrome, Safari и Яндекс.Браузер. Вполне возможно, в каких-то браузерах всплывут ошибки, и тогда их надо исправлять.

Дубли страниц

Далее мы приступаем к поиску дублей страниц. В ходе этого может, например, обнаружиться, что на сайте есть одинаковые страницы, отличающиеся только наличием слеша на конце URL. Более подробно борьба с дублями отражена в этой моей статье. Поиск также можно производить с помощью поисковой системы: запросом [«кусок текста в 5-7 слов» site:domain.ru].

Оптимизация под ключи

Проверяем, оптимизированы ли под ключи теги Title, h1, Description, настроены ли ЧПУ. Обычно если seo-теги короткие или вообще отсутствуют, а ЧПУ не настроены, то это сигнал, что к сайту сеошник вообще не прикасался. Необходимо составить списки (лучше отдельными файлами), где эти теги отсутствуют, либо являются слишком короткими/слишком длинными.

Длина URL

Адреса продвигаемых страниц, например, не должны быть длиннее, чем 75 символов (без учета названия домена). Оптимально нужно предоставить список страниц, у которых эта длина больше.

Проверка контента


Во внутреннем сео аудите мы не проверяем тексты на бредовость (это нужно делать в рамках продвижения) и не проверяем читабельность, шрифты, дизайн и так далее (это нужно делать в рамках аудита юзабилити). Нам нужно просто посмотреть, нет ли каких-то аномалий типа переоптимизации и слишком частого использования тега strong.

HTTPS

Проверяем, есть ли у сайта https-версия. Сейчас это один из факторов ранжирования, особенно для коммерческих сайтов, поэтому рекомендован переезд на этот протокол.

Циклические ссылки

Вероятно не самый важный пункт аудита, но для полноты не помешает. Циклические ссылки — это когда со страницы идет ссылка на саму себя. Мы можем просто открыть код нескольких страниц и выполнить по нему поиск, вбив в него их URL-адреса. Если циклические ссылки обнаружены, в аудит вносится мягкая рекомендация их убрать.

Уровень вложенности

Лучше, чтобы все страницы имели уровень вложенности не более, чем 5. Если у вас есть список приоритетных для продвижения страниц, то они должны иметь УВ=3.

Санкции к сайту

Смотрим прежде всего, не забанен ли сайт в Яндексе и Гугле. Проверяем также и его наличие в реестре запрещенных сайтов.

Прочее

Также сайт следует проверить вот на что:

  • Микроразметка. Проверяем ее наличие и валидность.
  • Фавикон. Он там обязательно должен быть, желательно привлекательный.
  • Кэширование. В подавляющем большинстве случаев лучше, когда на сайте настроено кэширование.
  • Включите голову. Не следуйте тупо моим рекомендациям и все. Пройдитесь по сайту и смотрите своими глазами — может там на страницах всплывают дурацкие блоки, может текст белым шрифтом на белом фоне написан.

Я лично большую часть из этих требований проверяю через Saitreport, он реально много параметров позволяет проверить. Некоторые он не сможет посмотреть автоматически, зато даст много другой информацию — кое-какую инфу о поведенческих факторах, базовые сведения об индексации сайта, неплохо выявляет все грамматические ошибки на сайте, за вас составляет файлы со списками дублей, проверяет сайт на баны и фильтры и так далее.

Вот, в общем-то, и все самые важные части аудита, которые вы должны затронуть, но если вам этого мало и вы хотите больше информации, советую посмотреть урок Гроховского по аудитам:

Вопросы, которые могут возникнуть

Вероятно, у некоторых из вас появится вопрос — а почему здесь нет анализа ссылочной массы? Так вот, анализ внешнего продвижения — это совсем другое. Если вы попросите своего сеошника выполнить его в рамках технического аудита, то максимум, что он сделает, так это просто выгрузит ссылки на ваш сайт. Ну иногда еще на пару конкурентов. И какой в этом толк? Это будет просто для галочки. Внешним продвижением нужно заниматься отдельно. И в рамках создания стратегии внешнего продвижения. Без этого смысла в выгрузке ссылок нет.


Почему здесь не написано, что нужно проверять, например, кликабельны ли фотографии или правильно ли расположены элементы на странице? Потому что это относится уже к аудиту юзабилити, а это уже совсем другое.

Почему почти не уделено внимания анализу индексации сайта? Анализ представления сайта в поиске — отдельный и довольно времязатратный процесс, поэтому он требует аудита индексации сайта.

А есть же всякие онлайн сервисы, куда просто ввел название сайта и он выдает аудит — так может лучше ими воспользоваться? Это все равно что иметь деньги на Мерседес, а ездить на ВАЗ 2106.

znet.ru

Экспресс-анализ входящего трафика

Для анализа распределения трафика по страницам сайта я буду пользоваться Яндекс.Метрикой, которая установлена на сайте.

Анализируем точки выхода. Это страницы, куда попадает пользователь, когда приходит откуда-то на сайт. Итак, определяем, какие страницы на самом деле входные для большинства посетителей.


Как сделать аудит сайта

Итак, основная точка входа на сайт — статьи раздела «Полезная информация» (эффект seo — в этом разделе хорошие тематические и уникальные тексты). Весомый трафик — на главную. Всего 3% — в каталог (на сайте каталог сейчас скорее условный — разделы наполовину пустые и товары там не представлены, есть только описания разделов). На остальные страницы попадают вообще единичные посетители.

Как сделать аудит сайта

Причина видна из статистики по источникам трафика — основной трафик на сайт идет из поисковых систем (естественная выдача, контекстная реклама не ведется). В выдаче по высокочастотным запросам — главная страница, по низкочастотным — оптимизированные статьи.

За три месяца на сайт пришло 11 025 посетителей, из них 99,4% новые (количество возвратов пользователей на сайт крайне низкое). Просмотрено 21 952 страницы. Средний показатель отказов — 74,1% (это значит, что почти 75% посетителей просматривают только одну страницу, причем закрывают ее не позже чем через 15 секунд после открытия. Эти посетители однозначно ничего не закажут и не обратятся в компанию).


Соответственно остальные посетители (где-то 950 человек в месяц) просматривают в среднем по 5 страниц (считается так: (21952 — 11025*0,741) / 11025*0,259) — значит, пытаются найти интересующую их информацию. Если не найдут — тоже ничего не закажут. Необходимо решать две проблемы — уменьшать % отказов и помогать посетителям найти интересующую информацию при просмотре сайта, и подтолкнуть их к обращению в компанию.

Анализируем отказы для самых популярных точек входа (в метрике отказами считаются визиты продолжительностью менее 15 секунд, в рамках которых просмотрена только одна страница).

  • Главная страница — 62,6%.
  • Страницы раздела статьи — в среднем 77,8%.

Процент отказов очень высокий (для этой тематики нормальный показатель порядка 40%). Причиной может быть либо нецелевой трафик, либо проблемы на входных страницах. Необходимо проверить оба варианта.

Анализируем запросы, по которым приходят пользователи (Метрика: «Источники» — «Поисковые фразы»). Трафика по нецелевым запросам практически нет. Основная доля трафика приходится на низкочастотные запросы типа «название материала — купить/цена»:

Как сделать аудит сайта


Соответственно, причины огромного % отказов и низкой конверсии надо искать на страницах, куда приходят пользователи.

Итого, рекомендации по точкам входа на сайт:

Во-первых, для начала принять точки выхода как есть. Менять их долго, сложно и пока нет необходимости. Тем более, раз по сайту ведется поисковое продвижение. Быстрее всего проблема решается путем внесения изменений на страницы, на которые сейчас идет основной трафик, чтобы сделать их продающими.

Поэтому требуется модернизация главной страницы сайта и раздела полезной информации. Добавление на сайт полноценного интернет-магазина (с актуальными ценами и информацией о наличии продукции). В дальнейшем — поисковая оптимизация интернет магазина, для увеличения количества точек входа на сайт по низкочастотным запросам (а это обычно — наиболее целевой трафик). Да и самую высокую конверсию в интернет-магазинах обычно дает входящий трафик на страницы каталога.

Смотрим сам сайт

1. Общее впечатление от сайта

Нейтральный дизайн (такой долго не устареет), довольно чистенько. Графический блок в правой части шапки (кусок небоскреба) смотрится как клипарт и в целом портит впечатление от сайта (стоит от него отказаться). При этом у разделов каталога достаточно наглядные иконки, иллюстрирующие предлагаемый товар.


Есть проблемы с форматированием. Используется очень много вариантов оформления шрифта. Тексты не оттипографлены. Пользователям приходится вчитываться, а они это не любят — минус один. Положительный момент — что именно предлагает компания понятно с первого взгляда на главную страницу — это прописано крупно и заметно.

Из-за лишних блоков информация хуже воспринимается. От всего лишнего надо избавляться. Например, блок «опрос» не подходит ни для корпоративного сайта, ни для строительного интернет-магазина (тем более вопрос «Как вы относитесь к рекламе?»). Такой элемент более характерен для развлекательных сайтов или сайтов интернет-сми.

Как сделать аудит сайта

Итого, полный редизайн сайту не требуется, достаточно косметической коррекции (поправить форматирование, сделать шрифты более единообразными и читаемыми, оттипографить тексты, избавиться от лишнего).

2. Юзабилити и контент — постраничный анализ сайта

Главная страница

На главную страницу попадают посетители, которые ищут либо саму компанию (по названию), либо поставщика строительных материалов. Поэтому, во-первых, с нее должна быть легко доступна информация о компании, контактах, услугах. Во-вторых, она должна перенаправлять посетителя в каталог продукции.


Как сделать аудит сайта

Сейчас текст на главной странице такой, что создается впечатление что он призван исключительно заполнить пустое место и вместить несколько раз ключевые фразы. Он не решает задачи представления компании (кроме того делать это лучше в отдельном разделе). И написан так, что подойдет любой фирме в этой области, достаточно заменить название.

При этом людям, которые ищут (и хотят купить!) строительные материалы важно, что есть в наличии, сколько это стоит, возможно — какие есть альтернативы для определенного материала. Поэтому текстовый блок в верхней части главной страницы рекомендуется убрать совсем, тем самым подняв выше блок с разделами каталога. Текст внизу — переписать на продающий. При этом важно сделать понятной и наглядной информацию о марках предлагаемой продукции. Для этого рекомендуется представить ее отдельным блоком с логотипами производителей.

Задачу перенаправления посетителей в каталог главная страница также решает сейчас недостаточно хорошо — из карты кликов наглядно видно, что меню каталога пользователи сейчас пользуются мало. Рекомендации по изменению навигации приведены в соответствующем разделе аудита сайта.

Никаких акций компания видимо не проводит, так как на главной нет вывода товаров-хитов и блока с акционными баннерами. Их рекомендуется добавить, чтобы улучшить конверсию.

Раздел «О компании»

Сейчас раздел представляет собой текстовую страницу «О Компании», и четыре дочерние страницы — «О нас», «Реализованные проекты», «Лицензии и сертификаты», «Контакты».

Как сделать аудит сайта

Как видно из карты кликов, в этом разделе пользователей больше всего интересуют страницы «О Нас» и «Контакты». Поэтому тем более необходимо объединить страницы «О компании» и «О нас», вынести контактную информацию в основное меню.

«Лицензии и сертификаты» пользователи почти не просматривают. Поэтому достаточно представить их отдельным блоком на странице «О Компании».

Раздел «Реализованные проекты» логически относится скорее к строительным услугам, предлагаемым компанией. Соответственно, эту информацию надо перенести в раздел услуг, где ее и будут искать пользователи..

Раздел «Направления деятельности»

Сейчас включает подразделы «Строительство» и «Торговля». Для пользователей будет удобнее узнавать о направлениях деятельности сразу из основного меню (дополнительно эта информация может быть в тексте на главной и должна быть в тексте о компании). Поэтому текст раздела «Торговля» предлагается включить в информацию о компании, а «Строительство» вынести в основное меню.

Страница «Строительство» сейчас содержит очень краткий текст. Рекомендуется дополнить его информацией о выполненных объектах. Отдельным блоком в эту страницу включить фотогалерею выполненных объектов. В галерее не работает увеличение фотографий. Эту функциональность необходимо починить. Кроме того, на страницу надо добавить информацию по заказу строительных услуг и отдельную форму заказа.

Раздел «Новости отрасли»

Очень «порадовал». Новостей отрасли там нет, только новости компании. Подряд про повышение цен. Рекомендуется разбавить их новостями о скидках и проводимых акциях (если есть). Раз новости отрасли не публикуются — раздел надо переименовать просто в «Новости» и оставить ссылку на него только из блока новостей в левой колонке на главной странице.

Раздел «Полезная информация»

Сюда идет основной трафик из поисковых систем. Пользователи ищут конкретные товары, цены на них и заинтересованы в покупке. При этом они попадают на страницу с неплохим описанием данного материала, но без возможности узнать что есть в продаже и тем более купить.

Ниже описания тем же шрифтом указано: «Для приобретения данного материала позвоните нам по телефону (495) 730-17-82. У наших консультантов вы также можете узнать любую интересующую информацию по данному материалу: выяснить условия покупки, доставки, возможность льготного приобретения, а также правила укладки и ухода за ним», либо «По вопросам сотрудничества обращайтесь: 730-17-57 доб. 116».

Это сообщение не заметно, тем более что человек который хочет купить товар не станет читать статью, даже очень хорошую, поэтому не прочитает и про возможность заказа. Очевидно, что пользователи не находят конкретных товаров, которые им нужны, не замечают телефона для справок и уходят с сайта.

Что можно сделать?

  1. Над статьей и после нее сделать хорошо заметные ссылки в соответствующие разделы каталога.
  2. Визуально выделить информацию по покупке.
  3. Обеспечить хорошо заметное и понятное меню каталога в левой колонке (это традиционное для него расположение).
  4. Выводить ниже статьи или рядом с ней блок с соответствующими товарами из каталога.
  5. Переименовать раздел в «Справочник стройматериалов»
  6. Улучшить навигацию внутри раздела, добавив навигацию типа «предыдущая — следующая».

Раздел «Партнеры»

Раздел содержит логотипы компаний, чью продукцию можно купить в «ДомСтрое». Логотипы разного размера и недостаточно аккуратно оформлены. От данной страницы рекомендуется отказаться, представив партнеров в отдельном блоке на главной странице и на странице «О компании». Логотипы необходимо однотипно и аккуратно оформить.

«Каталог продукции»

Сейчас этот раздел представляет собой филиал раздела «Полезная информация», причем наполовину без контента.

Как сделать аудит сайта

Если компания планирует вести продажи с сайта, необходимо добавление на сайт полноценного интернет-магазина. Также запуск интернет-магазина потребует добавления на сайт раздела «Оплата и доставка». Статьи, находящиеся сейчас в разделе «Каталог продукции», рекомендуется перенести в раздел «Полезная информация».

4. Доступность контактной информации

На шапке сайта есть телефон, также он дублируется в тексте на главной странице и указана в большинстве текстов на сайте. Это хорошо. Тем не менее контактная информация на сайте недостаточно доступна:

  • Ссылка на страницу контактов находится во втором уровне меню. Для большей доступности необходимо вынести ее на первый уровень.
  • В нижней части главной страницы есть блок с контактной информацией. Рекомендуется внести его в подвал сайта. Во-первых он нужен на всех страницах, а во вторых в подвале его традиционно ищут пользователи.

5. Навигация по сайту

Навигация по сайту затруднена.

Во-первых, она путает пользователей. На сайте есть отдельные страницы с одинаковыми по смыслу названиями: «О компании» и «О нас».

Как сделать аудит сайта

Кроме того, у компании два направления деятельности — продажа стройматериалов и строительство. При текущей организации сайта информация о строительных услугах компании доступна только из второго уровня меню (пользователи туда практически не заходят).

Как сделать аудит сайта

А отсутствие товаров в каталоге создает впечатление, что пользователь попал в неработающий интернет-магазин.

Во-вторых, для интернет-магазина важнее всего доступность и заметность навигации по каталогу. Сейчас меню каталога расположено вторым блоком вертикального меню и оттого хуже заметно (пользователи по нему почти не кликают) — в каталог заходят мало.

Как сделать аудит сайта

Как видно из карты ссылок (Метрика: «Поведение» — «Карта ссылок») за три месяца по ссылкам в меню каталога было порядка 30 кликов (по каждой). За это же время кликов по ссылке «О компании» было в 10 раз больше. Переходов в каталог больше из центрального блока на главной странице, чем из меню.

Посетители сайта не могут сориентироваться в меню, поэтому зачастую пытаются воспользоваться поиском и картой сайта — это можно определить проанализировав карту кликов («Поведение» — «Карта кликов»). При этом поиск по сайту не работает, а карта сайта дублирует основное меню. Рекомендуется отказаться от карты сайта, а поиск починить. При этом для поиска нет необходимости делать отдельную страницу, можно вынести поле поиска на шапку.

Как сделать аудит сайта

Рекомендуется:

  1. Отказаться от второго уровня основного меню, оставив следующие пункты:
    • Каталог — ссылка на главную страницу каталога продукции;
    • Оплата и доставка — данный раздел рекомендуется добавить;
    • Строительство — на странице разместить и информационный текст, информацию о реализованных проектах и галерею выполненных работ;
    • О компании — на странице разместить текст о компании и блоки «Лицензии и сертификаты» и «Партнеры»;
    • Справочник стройматериалов (переименовать раздел «Полезная информация»).
    • Контакты.

    Такая организация меню сделает легко доступной информацию обо всех направлениях деятельности компании, позволит исключить дублирующиеся пункты, избавит пользователей от лишних кликов, которые сейчас требуются для просмотра страниц второго уровня..

  2. Сделать основное меню горизонтальным — на шапке сайта достаточно свободного места для этого.
  3. Меню каталога поднять на освободившееся место, разместив непосредственно под логотипом. Меню каталога должно быть по умолчанию развернутым до второго уровня (покупателям будет проще ориентироваться). Оформление меню каталога надо сделать более структурированным (можно использовать оформление, которое сейчас у основного меню). Это также решит проблему поиска интересующей продукции для посетителей, пришедших из поиска (на главную или в раздел полезной информации).
  4. Ссылку на архив новостей достаточно оставить из новостного блока, исключив из основного меню.

Предлагаю изменить структуру главной страницы и навигации так:

Как сделать аудит сайта

blog.sibirix.ru

Этап 1. Подготовка к SEO-аудиту

Лучше всего начать со сканирования сайта, используя краулер (поисковый робот), например, Screaming Frog SEO Spider. Этот инструмент анализирует код, контент, внутренние и исходящие ссылки, изображения и другие элементы сайта сточки зрения SEO и составляет общее представление оположении дел.

Нельзя забывать о возможностях стандартных сервисов поисковых систем — Яндекс.Вебмастер и Google Webmaster Tools – они так же предоставляют большое количество ценной информации.

Этап 2. Внутренний SEO-аудит

Технический аудит

Robots.txt

Файл robots.txt по желанию размещается в корневой директории сайта и содержит инструкции по его индексированию для роботов поисковых систем.

С использованием различных директив robots.txt можно:

  • запретить или разрешить роботам индексировать некоторые разделы и страницы сайта или весь сайт целиком;
  • указать путь к карте сайта sitemaps.xml, способствующей правильному индексированию;
  • дать понять роботу, какое зеркало сайта, при наличии нескольких его копий, является главным, и какие зеркала индексировать не нужно;
  • снизить нагрузку на сайт от поисковых роботов, если необходимо экономить ресурсы.

При этом разные правила можно создавать для отдельных поисковых систем и даже для разных роботов одной и той же системы.

Используйте все возможности robots.txt. Убедитесь, что запрещено индексирование «секретных» областей сайта, страниц с контентом низкого качества истраниц-дубликатов. Проверьте, разрешен ли доступ ко всем областям сайта, которые должны быть проиндексированы поисковыми системами.

При анализе файла robots.txt вам помогут Яндекс.Вебмастер, Google Webmaster Tools и другие сервисы.

Указания для поисковых роботов в тэгах

Но для еще более гибкого управления индексированием сайта и его отдельных страниц поместите директивы для поисковых роботов в тэгах.Так вы разрешите или запретите роботам индексирование конкретных страниц и переход по размещенным на них ссылкам.

XML Sitemap

Файл Sitemap (карта сайта) добавляется в корневую директорию сайта и дает поисковым системам информацию о том, какие страницы сайта должны быть проиндексированы, какие из них впервую очередь, как часто они обновляются.

Если на сайте уже есть файл Sitemap (желательно вформате XML), то проверьте корректность его кода с помощью валидатора (такой инструмент есть, в частности, в сервисах для веб-мастеров от Яндекса и Google). Позаботьтесь также о том, чтобы файл Sitemap содержал не более 50 тыс. URL и весил не более 10 Мб. Если эти лимиты превышены, то придется создать несколько файлов Sitemap и один индексный файл Sitemap Index со списком всех карт.

Если карты сайта пока нет, создайте ее вручную или с помощью одного из множества инструментов (например, XML Sitemap и его аналогов, плагинов для WordPress и других распространенных движков; с бОльшим списком инструментов можно ознакомиться на ресурсах Google).

После создания проанализируйте карту в валидаторе и сообщите поисковым системам о ее существовании через их сервисы для веб-мастеров, а также посредством добавления пути к Sitemap в файл robots.txt.

Markup Validator – валидатор html-кода для устранения неточностей и ошибок кода, снижающих позиции сайта в выдаче. Создан сообществом, которое занимается разработкой и утверждением международных стандартов веб-разработки.

Оценка качества индексирования сайта

Команда site: обычно вводится в строке поисковых машин, чтобы ограничить зону поиска определенным доменом. Но эта команда позволяет также узнать приблизительное количество всех страниц сайта, которые были проиндексированы. Для этого просто введите site: c доменным именем без слов поискового запроса.

Сравните количество проиндексированных страниц с общим количеством страниц сайта, которое вы узнали на стадии создания sitemap.xml и сканирования сайта с помощью Screaming Frog, Xenu’s Link Sleuth или других инструментов.

Если оба числа почти одинаковы, значит, сайт проиндексирован хорошо. Если проиндексированы не все страницы, то выясните причину — возможно, ваш сайт не оптимизирован для поисковых систем, имеет много закрытых от индексирования разделов и страниц или попал под санкции. Если же количество проиндексированных страниц превосходит реальное их количество, то, вероятно, на вашем сайте есть много дублированного контента, о котором речь пойдет далее в этой статье.

Рассмотрим подробнее, как работает и что показывает Google Webmaster Tool.

При его открытии отображается подобный график:

Как сделать аудит сайта

Он показывает, сколько страниц проиндексировано в настоящий момент. На графике отображены данные за последний год.

И если на нем видно, что количество проиндексированных страниц постоянно увеличивается, то это замечательно. Это означает, что новый контент на сайте находится, ранжируется и добавляется в индекс Google.

Но иногда необходимо получить более подробную информацию. Для этого есть кнопочка «Расширенные данные». После нажатия на нее, открывается новый график:

Как сделать аудит сайта

На нем отображается не только количество проиндексированных страниц на данный момент времени, но и общее количество – те которые были просканированы за весь показанный период. Также показывается число страниц, заблокированных в файле robots.txt и страницы, которые не попали в индекс.

Коды состояния HTTP

Код состояния HTTP  – это часть первой строки ответа сервера при запросах по протоколу HTTP. Он представляет собой целое число из трех арабских цифр, находящееся впервой строке ответа сервера при запросе к веб-странице, и показывает еетекущее состояние. Необходимо установить, при обращении ккаким URL сайта появляется сообщение об ошибке— обычно с кодом вида 4xx или 5xx. Например, известно: код 404 означает, что страница не найдена, а код 503— что обнаружена внутренняя ошибка сервера. Код 200 говорит о том, что все работает хорошо.

Если на сайте используются перенаправления (редиректы) с одних URL на другие, то убедитесь, что это именно 301 редиректы, а не 302 и не перенаправления, прописанные в тегах или с помощью JavaScript. Используя 302 redirect (Temporary redirect) — «временно перемещен» – вместо 301, исходный URL будет оставаться в индексе Google, и удерживать свои позиции, как если бы страница все еще была доступна. Однако пользователи, которые будут кликать на ссылке, попадут на ваш новый URL – именно туда, куда вы намерены их направить.

Для проверки кодов состояния HTTP можно пользоваться различными сервисами— например, специальным инструментом от Monitor Backlinks или встроенными средствами Яндекс.Вебмастер и Google Webmaster Tools.

URL страниц сайта

Грамотный URL страницы имеет длину неболее100-120 символов,состоит в основном из легкочитаемых слов (например, вот такой: https://myacademy.ru/kursi/seo-poiskovaya-optimizatsiya/seo-dlya-nachinayuschih.html — содержит ключевые слова, описывающие страницу.

Все это способствует не только лучшему поисковому индексированию, но и повышению удобства для посетителей сайта.

Старайтесь избегать сложных адресов с параметрами и отдавать предпочтение статичным ссылкам, использовать для разделов в структуре сайта директории, а не субдомены, разделять отдельные слова в URL дефисами или знаками подчеркивания, такое написание лучше воспринимается посетителями сайта.

Скорость загрузки сайта

Пользователи интернета нетерпеливы и сразу покидают медленные сайты. Так же и у поисковых систем есть определенный лимит времени на обработку каждого сайта, поэтому быстрые сайты индексируются тщательнее и за более короткий период времени. 

Как проанализировать скорость загрузки сайта?

Применяйте встроенные средства систем веб-аналитики (например, отчеты о времени загрузки страниц есть в Google Analytics и Яндекс.Метрике. А для наиболее полного анализа скорости можно использовать специализированные сервисы, например, Google PageSpeed Insights:

Изображение - savepic.ru — сервис хранения изображений

или YSlow:

Изображение - savepic.ru — сервис хранения изображений

Если сайт нуждается в ускорении, оптимизируйте изображения в графическом редакторе с помощью функции подготовки графики для публикации в интернете, сократите объем кода HTML и CSS, уберите лишний код JavaScript, разумно используйте сжатие, кэш браузера и сервера и осуществите другие необходимые действия.

Этап 3. Аудит структуры сайта

Архитектура сайта

Сайт должен иметь ясную и логичную структуру страниц, упорядоченных покатегориям и тесно связанных между собой внутренними ссылками.

Избегайте большого количества уровней вложенности: пусть все важные страницы будут расположены водном клике отглавной, а другие страницы — не далее, чем в 3-4 кликах.

Такая простая для посетителя архитектура сайта позволит поисковым машинам быстрее проиндексировать все страницы сайта, а посетителям поможет не заблудиться и быстро найти нужную информацию, что, в конечном счете, тоже положительно повлияет на SEO.

Старайтесь неиспользовать насайте навигационные меню, созданные с помощью Flash иJavaScript. Это нежелательно, даже несмотря на то, что поисковые системы сегодня намного умнее, чем в прошлом.

Если все же JavaScript-навигация присутствует на сайте, проведите два этапа индексирования сайта с помощью Screaming Frog, Xenu’s Link Sleuth или другого специализированного сервиса (мы писали об этом в начале этого руководства): с включенным и отключенным JavaScript. Это позволит выявить, оказались ли какие-то разделы и страницы сайта недоступными для индексирования из-за наличия JavaScript-меню.

Внутренние ссылки 

Внутренняя перелинковка способствует лучшему индексированию сайта иразумному распределению веса страниц.

В этом нелегком деле поможет Page Rank Decoder – инструмент для прогнозирования распределения веса страниц при использовании различных схем перелинковки.

Установите между страницами сайта множество связей, соблюдая при этом простые требования:

  • в качестве анкоров используйте не только ключевые слова, но и различный нейтральный текст— например, такие призывы к действию, как «ознакомьтесь», «скачайте» и т.п. (это делает общую массу ссылок более естественной для поисковых систем, тогда как изобилие ключевых слов выглядит подозрительно);
  • страницы иключевые слова в составе анкоров должны быть релевантны контенту целевых страниц;
  • направляйте больше ссылок на те страницы, которые должны занять более высокие позиции;
  • ссылайтесь на такие страницы с«Главной»;
  • не размещайте на одной слишком большое количество внутренних ссылок.

Этап 4. Аудит контента

Заголовки страниц

Заголовки страниц— это первое, что видит ваша аудитория впоисковой выдаче ивсоциальных сетях, после чего они принимают решение посетить ваш сайт. Поэтому важно уделить оптимизации заголовков особое внимание.

Формулируйте заголовки кратко: старайтесь невыходить зарамки70-90 символов,иначе заголовок может быть обрезан врезультатах поиска, всоциальных сетях, апользователи Twitter несмогут добавить кнему свои комментарии.

Заголовки служебных и различных информационных страниц сайта (заисключением статей и других подобных контентных продуктов) должны точно описывать их содержание.

Не забудьте добавлять в заголовки страниц ключевые слова — желательно ближе к началу. Но не переходите границы разумного: как и в случае со всем контентом страницы, придумывайте заголовки для людей, а не для машин.

Убедитесь, что все страницы насайте имеют уникальные заголовки. В этом вам поможет, например, сервис Google Webmaster Tools, в котором есть инструмент поиска страниц с одинаковыми заголовками.

Описания страниц в тэгах

Описание страницы из тэга может включаться в сниппет в поисковой выдаче, поэтому стоит ответственно подойти к управлению мета-описаниями важных страниц

Сниппет — это блок информации о найденном документе, который отображается в результатах поиска. Сниппет состоит из заголовка и описания или аннотации документа, а также может включать дополнительную информацию о сайте.

Как сделать аудит сайта

Составляйте описания изнескольких слов, общей длиной до150-160 символов. Это должен быть связный текст, рассказывающий о конкретной странице, а не обо всем сайте, и не перегруженный ключевыми словами. Поддерживайте описания в актуальном виде: если информация на странице обновилась, и описание устарело, внесите в него необходимые изменения.

Пусть каждая страница имеет уникальное описание. Выявить все страницы с одинаковой информацией в тегах

можно спомощью Google Webmaster Tools.

Ключевые слова втэгах

Уже достаточно давно большинство поисковых систем игнорируют ключевые слова втэгах, так что есть смысл вообще не добавлять эту информацию вкод сайта, чтобы не предоставлять конкурентам лишние данные о вашей SEO-стратегии.

Контент

Эта истина уже банальна, но: вы должны создавать контент для людей, а не для поисковых машин. Не стоит слишком увлекаться поисковой оптимизацией— это сделает текст почти непригодным для комфортного чтения и, в конечном счете, отрицательно скажется на результатах SEO.

Убедитесь, что страницы вашего сайта содержат ценный для аудитории, уникальный контент, а не сверхоптимизированный текст и копии с других сайтов, и что объем контента на каждой странице превышает300-400слов (есть данные, что при прочих равных условиях страницы с2000 слов и более располагаются обычно выше врезультатах поиска). В современных алгоритмах оптимальный объем контента автоматически формируется для разных тематик. В некоторых тематиках будет достаточно и 200-400 слов на странице, а кое-где понадобятся большие тексты. Если к вопросу подходить очень серьезно, то объем контента для каждой страницы определяется анализом выдачи по конкретным запросам в конкретном регионе.

Здесь вам на помощь придут такие сервисы:

ContentMonster

Биржа контента. Проверяет уникальность текста, следит за качеством работы авторов, возвращает 120% стоимости текста, если вы сочтете его некачественным.

Webartex

Объединяет биржу статей и сервис статейного продвижения. Копирайтеры напишут статьи под ваш проект, вебмастера разместят статьи с вечными ссылками на надежных площадках.

Content-Watch

Инструмент для проверки уникальности текстового контента. Позволяет проверить уникальность текста, введенного пользователем, и уникальность контента вашего сайта.

Advego Plagiatus

Бесплатный софт для проверки уникальности текстов. Показывает процент совпадения, источники текста. Проверяет тексты и веб-страницы.

Обратите внимание на наличие ключевых слов втексте страниц— прежде всего, впервых нескольких абзацах. Отредактируйте текст так, чтобы использование ключевых слов неприводило кповторениям ибессмысленным фразам, написанным содной лишь целью вочередной раз упомянуть ключевое слово. Красивый, стройный, полезный текст, снезаметными для читателя ключевыми словами— вот кчему выдолжны стремиться.

Само собой разумеется, что нужно позаботиться, чтобы текст на сайте был лишен грамматических ошибок: безграмотность говорит о непрофессионализме автора, поэтому такой контент будет занимать низкие позиции в результатах поиска.

В этом вам помогут такие сервисы, как:

Орфорграф – один из самых первых сервисов проверки орфографии, который предложил рунету Артемий Лебедев.

Проверка орфографии от Яндекс.Вебмастер – обрабатывает веб-страницу целиком. Проверять правописание на Яндексе важно с точки зрения написания неологизмов. Как писать: «Твиттер» или «Твитер»? Яндекс расскажет, в каком виде его робот скорее распознает спорные слова.

Дублированный контент

Если на вашем сайте или за его пределами присутствует контент, дублирующий другие материалы сайта, поисковые системы должны определять, какую именно версию проиндексировать ипоказать врезультатах поиска. И эта проблема только усугубляется помере того, как другие сайты ссылаются наразные копии страницы или одну и ту же страницу, открывающуюся поразным URL.

Вот некоторые причины возникновения дублированного контента:

  • CMS сайта может делать одни и те же страницы доступными по разным ссылкам;
  • вторая часть URL на многих сайтах формируется динамически, содержит дополнительные параметры, меняющиеся в ависимости от различных факторов;
  • контент сайта часто воруют, размещают надругих ресурсах без обратной ссылки, ипоисковая система не способна связать его с первоисточником;
  • при посещении сайта может создаваться сессия с уникальным идентификатором, который используется в динамических URL (это нужно, например, для временного хранения информации о добавляемых в корзину товарах— вплоть до оформления заказа);
  • версии страниц сайта, оптимизированные для печати, могут расцениваться как дубликаты.

Дублированный контент внутри сайта можно выявлять, например, с помощью Google Webmaster Tools (сервис умеет находить страницы с одинаковыми заголовками и мета-описаниями) и поисковых операторов, которые могут указываться вместе с запросами в строке поисковых машин.

Решить проблему дублированного контента можно путем простого удаления дубликатов, создания 301 редиректов, запрета на индексирование дубликатов в файле robots.txt или в мета-тэгах отдельных страниц, использования директивы rel=»canonical» и другими способами.

Внутритекстовые заголовки

Четко структурируйте текстовые публикации. Используйте заголовки (тэг— для самых значимых из них), подзаголовки нескольких уровней, выделяйте отдельные фрагменты текста жирным шрифтом, курсивом.

В идеале на странице должен присутствовать всего один заголовок первого уровня, который содержит в себе два-три заголовка второго уровня, в которых, в свою очередь, «вложены» заголовки рангом поменьше и так далее. Структура документа должна иметь примерно такой вид:

Как сделать аудит сайта

При этом важно соблюдать меру: слишком много заголовков и ключевых слов, выделенных жирным шрифтом, оттолкнут читателей не меньше, чем монотонный неструктурированный текст. Продуманное форматирование текста значительно облегчает читателю восприятие текста, а заголовки с важными словами еще и положительно сказываются на SEO. А наилучший способ структурирования текстов на сайте — думать, прежде всего, о людях и сделать несколько легких «реверансов» в сторону поисковых машин.

Изображения

Часто посетители ищут информацию по картинкам, и таких пользователей очень много. Google и Яндекс предоставляют всем желающим поиск по картинкам, где с помощью ключевых слов каждый может найти нужные изображения.

А если есть поиск, значит, есть и трафик, который можно использовать в своих целях. Правильная оптимизация изображений под поисковые системы позволит привести на сайт трафик и усилить позиции документов по продвигаемым запросам.

Самые главные атрибуты картинок это ALT и Title. Загружая картинку к посту, нужно лишь прописать эти атрибуты и ваши картинки приведут Вам посетителей.

Для этого проанализируйте все важные изображения навашем сайте, тематически связанные с окружающим их текстовым контентом. Для полноценного индексирования имен графических файлов, а также значение атрибута alt тега должны содержать слова, описывающие изображение, и желательно ключевые слова страницы. При этом сделайте разными имя файла изначение атрибута alt.

Слова в имени файла стоит разделять дефисами, а не знаками подчеркивания. Для описания следует использовать именно атрибут alt, анеtitle, ионо должно быть кратким— не линнее 150символов, со всеми важными словами в начале текста.

Конечно, очень хорошо бы было, если бы картинки были уникальными, а не просто изображениями, которые первыми попались под руку, или же найденными в интернете.

Позаботьтесь о быстрой загрузке всех изображений, размещаемых на сайте: удаляйте все лишние области, устанавливайте размер картинок не выше минимально необходимого, оптимизируйте их в графическом редакторе с использованием встроенных инструментов подготовки картинок для интернета.

Этап 5. Аналитика

Улучшайте метрики, чтобы легко находиться в поиске при помощи рекомендуемых инструментов:

Seolib.ru — автоматически мониторит изменения позиций сайта в выдаче всех поисковых систем. Контролирует видимость сайта, анализирует качество ссылок, находит и исправляет ошибки оптимизации, работает с ядром ключевых запросов.

Seopult.ru — сервис автоматизированного продвижения сайта. Предоставляет рекомендации по продвижению и удобную систему преднастроек. Закупает ссылки, анализирует эффективность работы.

MegaIndex — еще один сервис для автоматизации продвижения сайта. Экспресс-аудит, счетчик посещаемости, составление семантического ядра и работа с ключевыми запросами, анализ конкурентов, социальных и поведенческих факторов.

BotScanner — анализирует данные о посетителях сайта и делает выводы об их качестве. Позволяет отделить ботов и случайных посетителей от «полезных» пользователей. Оценивает эффективность разных каналов трафика. Наглядно представляет информацию.

Этап 6. Внешний SEO-аудит

Исходящие ссылки

Часто владельцы сайтов внимательно относятся только кполучению трастовых обратных ссылок, но заботиться нужно и об исходящих ссылках с вашего сайта на другие ресурсы.

Избегайте ссылок на некачественные сайты и сайты с плохой репутацией: это будет негативно влиять наваши позиции врезультатах поиска. Если размещение такой ссылки всеже неизбежно, используйте в теге атрибут rel со значением nofollow ля запрета перехода поссылке для поисковых машин.

Ссылайтесь на внешний контент, тематически связанный свашей страницей, а в текст ссылок старайтесь включать слова, описывающие целевую страницу.

Регулярно проводите проверку на наличие битых ссылок, то есть тех, переход по которым приводит к ошибкам с кодом вида 4xx или 5xx. Для этого можно использовать Link Checker от W3C и другие сервисы.

Обратные ссылки

Ссылочное ранжирование все еще работает, и нам стоит принимать во внимание количество и качество входящих ссылок, хотя тенденции и говорят о снижении в будущем их значения для продвижения сайта.

Воспользуйтесь такими сервисами, как Majestic SEO,Open Site Explorer, Ahrefs или инструментами для веб-мастеров от Яндекса и Google, чтобы узнать, какое количество сайтов ссылаются на ваш сайт, связаны ли они тематически свашим сайтом и являются ли они трастовыми.

Если на вас ссылается множество качественных сайтов из той же отрасли, вы приобретаете высокий авторитет. Если же эти сайты имеют плохую репутацию и содержат контент низкого качества, поисковые системы начинают считать таковым и ваш сайт.

Старайтесь приобретать обратные ссылки, втексте которых присутствуют нужные вам ключевые слова. В этом деле надо соблюдать меру: большое количество входящих ссылок сдругих сайтов с одинаковым или похожим анкорным текстом может приводить к понижению позиций вашего сайта в поиске по содержащимся в тексте ссылок ключевым словам. Общая масса обратных ссылок на ваш сайт должна выглядеть естественной для поисковых машин: пусть одни ссылки имеют в анкорах ключевые слова, другие— призывы к действию, вроде «щелкните здесь», «ознакомьтесь», или другой нейтральный текст.

RotaPost – покупка ссылок и обзоров, реклама в блогах. Площадка связывает рекламодателей с владельцами блогов, микроблогов и новостных сайтов, готовых предоставить свои ресурсы для размещения ссылок.

B2Blogger – сервис по рассылке пресс-релизов в Рунете. Помогает распространять пресс-релизы по тематическим ресурсам, транслирует публикации в новостные агрегаторы Яндекс и Google. Хорошо индексируется поисковыми системами и сервисами мониторинга.

Pr.Sape – биржа покупки вечных ссылок. Сервис предлагает разные степени настройки, от ручной до полной автоматизации. Позволяет настраивать бюджеты, фильтровать площадки, контролировать индексацию ссылок, покупать ссылки в социальных сетях.

Миралинкс – инструмент статейного маркетинга. Вручную размещает статьи на вручную же проверенных площадках. Есть банк готовых статей, написанных копирайтерами компании.

GoGetLinks – еще одна биржа покупки вечных ссылок. Предлагает размещать ссылки в заметках, контекстные ссылки и ссылки в картинках. Автоматизирует процессы, создает заметки.

SEO-анализ сайтов-конкурентов

Важной частью аудита является изучение стратегий и ошибок ваших конкурентов в области SEO.

Защита от негативного SEO

Негативная поисковая оптимизация объединяет совокупность черных и неэтичных методов и технологий, которыми пользуются конкуренты, чтобы снизить позиции вашего сайта в поисковой выдаче или вообще забанить его в поисковых системах. Вот некоторые способы достичь этих целей:

  • хакерская атака и взлом сайта;
  • распространение тысяч спамерских ссылок на вашем сайте через комментарии;
  • создание клонов вашего сайта икопирование контента без вашего разрешения;
  • создание поддельных профилей всоцсетях, через которые распространяется негатив против вашей компании и сайта;
  • удаление трастовых ссылок с других сайтов на ваш сайт.

Заключение

Грамотно проведенный SEO-аудит не только сделает ваш сайт более дружелюбным по отношению к поисковым системам, но и одновременно повысит его юзабилити и ценность для посетителей.

При условии правильного и регулярного исполнения (не реже двух раз вгод) аудит значительно увеличивает трафик— как поисковый, так и другие его виды, ведь пользователи любят удобные сайты и возвращаются на них снова иснова.

myacademy.ru

1. Настройка программы

Первоначальные настройки

Из нестандартных настроек Screaming Frog мы б рекомендовали установить следующие параметры:

В Configuration -> Spider на вкладке Advanced выставить галочки напротив Respect Noindex и Respect NoFollow

Что даст возможность смотреть на сайт так, как его в итоге будут индексировать поисковики. Кроме этого, это позволит сократить время на анализ сайта.

Настройки при парсинге больших сайтов

Если вы знаете, что вам нужно будет проанализировать сайт с довольно большим количеством страниц, то, процесс парсинга всех страниц сайта может затянуться на очень долго (вплоть до нескольких дней). Поэтому, так как в основном, ошибки будут иметь однотипный характер для разных «функциональных частей» сайта (страницы каталога, страницы товаров/статей) вы можете ограничить глубину парсинга до 4-5 уровня вложенности.

Для этого переходим Configuration -> Spider на вкладке Limits и ставим там уровень вложенности 4-5.

Кроме того, сразу можно отключить галочку остановки процесса парсинга при использовании значительного объема памяти.

В итоге, после полного парсинга вы сможете выявить все типичные ошибки на сайте.

Парсинг только определенного вида страниц

Если вдруг, вам нужно проанализировать только один раздел сайта или определенную часть сайта, то, с помощью регулярных выражения вы можете указать какие шаблоны урлов вам необходимо спарсить. Для этого вы должны перейти на Configuration -> Include и задать эти шаблоны.

Например, чтобы на сайте wikimart’a спарсить только раздел сайта Телефоны, нужно задать вот такое регулярное выражение:

Аналогично, используя регулярные выражения, вы можете исключить из парсинга некоторые разделы сайта или типы файлов. Для этого нужно воспользоваться вот этой настройкой Configuration -> Exclude и прописать, каким регулярным выражением, должны соответствовать те части сайта, которые не нужно парсить.

Благодаря этим настройкам вы можете значительно сократить как время парсинга, так и нагрузку на сайт.

Парсинг сайта на сервере разработчика

Так как желательно устранить все ошибки сайта перед его выкаткой на основной домен, то, итогда парсинг необходимо делать на сервере разработчика. Тут возникают следующие нюансы:

  • Доступ к сайту через аутенификацию. К счастью эта проблема решена и после ввода логина и пароля можно спокойно проводит анализ сайта:
  • Второй нюанс, что обычно, сайт полностью закрывается от индексации через robots.txt, а так как, даная программа, по-умолчанию, поддерживает инструкции из этого файла, то, процесс парсинга у вас не начнется. Для этого вы должны включить опции принудительно игнорировать данный файл:

Это позволит вам выявить основные ошибки уже на промежуточном этапе разработки. Но, после того, как вы настроите все инструкции в файле robots.txt и откроете для индексации основной контента сайта, нужно будет провести повторную проверку сайта уже учитывая все инструкции файла роботса.

Определение оптимальной скорости парсинга сайта

И последняя, но, наверно, одна из основных настроек — это скорость парсинга. Довольно мало сайтов выдерживают одновременно большое количество обращений, поэтому, изначально лучше всего в Configuration -> Speed выставить следующие параметры

При таких настройках вы сможете спарсить большинство сайтов. НО: как только вы включили процесс парсинга подождите 10-20 секунд и, в самом низу, проверьте насколько сайт выдерживает вашу нагрузку

Как видно, что сайт не выдерживает 10 обращений в секунду, поэтому, нужно ограничить кол-во обращений за секунду (при чем желательно не почти к самым пиковым значением, а оставить запас). В данном случае, лучше всего поставить значения Max URI/s = 2. Это позволит нам не уложить сайт и получить все данные по сайту.

Использование proxy

Если вы хотите скрыть свой ip или, что более вероятно, при парсинге заблокируют ваш ip, то, вы можете спокойно обойти это ограничение используя proxy сервер:

Настройка своих параметров поиска текста на страницах

С помощью этой вкладки вы можете задать некоторые свои параметры страницы, по которым вы б хотели получить данные. Например,

Таким образом мы можем получить список страниц

  • Которые содержат текст «Нет в наличии»
  • На которых отсутствует код Google Analytics.

Сохранение своих настроек

После того как вы сделаете настройку программы по своим параметрам, то, желательно из сохранить как «По умолчанию», чтобы каждый раз не вносить их заново:

Теперь давайте детально пройдемся по каждой вкладке и рассмотрим на что обращать внимание в первую очередь.

2. Internal

Данная вкладка содержит всю информацию по результатам парсинга (кроме, внешних ссылок и пользовательских значений).

Анализ пустых страниц и страниц, которые нужно закрыть от индексации

После полного анализа сайта мы можем проанализировать страницы, на которых минимальное количество контента. Это нам даст возможность понять

  • какие страницы нужно закрыть от индексации, например, страницы корзины, авторизации и тд.
  • на каких важных страницах отсутствует контент

Поэтому, чтобы быстро проанализировать пустые страницы лучше всего сделать экспорт в Excel, но, перед этим зафильтровать для анализа только HTML страницы.

После открытия файла

  1. переносим колонку WordCount (аналогично, можно потом проанализировать по колонке Size) поближе к url-адресам сайта и сортируем колонку по возрастанию
  2. фильтруем колонку Status Code (это ответы сервера) на значения

В итоге, сразу получаем список страниц, на которых явно меньше контента, чем в среднем по сайту:

Очевидно, что эти страницы не содержат никакой полезной информации для пользователей, поэтому, их нужно исключить из поисковых результатов. Для этого, например, добавляем в файл robots.txt следующие инструкции

Disallow: /cart

Disallow: /checkout

Disallow: /contact-us

Disallow: /forgot-password

Disallow: /login

Disallow: /search

Анализируем другие страницы и собираем список пустых страниц, на которых должен быть контент, но он отсутствует.

В данном случае, мы еще нашли

  • пустые страницы совсем без текстовой информации
  • пустые категории, где совсем нет товарных позиций

Соответственно, теперь нужно заполнить данные страницы информацией, а категории или заполнить товарами, или сделать их не активными для отображения.

Анализ перелинковки на сайте: уровень вложенности страниц, кол-во входящих и исходящих ссылок для конкретных страниц сайта

При проектировании или уже при настройке перелинковки очень важно, чтобы важные страницы сайта

  • были как можно ближе к главной страницы (имели минимальный уровень вложенности). Тут мы или делаем сортировку по возрастанию по уровню вложенности = Level и смотрим все ли важные страницы находятся близко к топу, или через поиск вбиваем урл и проверяем его уровень вложенности на сайте
  • имели как можно больше входящих ссылок и как меньше исходящих, при этом, на не важные страницы было как можно меньше ссылок (например, страницы с корзиной, регистрацией, авторизацией). Делаем сортировку по убыванию для колонки Inlinks и анализируем, какие страницы получают максимальное количество ссылок с сайта.

3. External

Данная вкладка включает всю информацию про внешние URI.

Анализ всех внешних ссылок с сайта

Очень важно понимать на какие ресурсы и с каких страниц сайта стоят внешние ссылки. Всю эту информацию мы получаем на данной вкладке и, желательно, чтобы все эти ссылки были у вас под контролем. Так как, или вебмастера могут проставить ссылки на свои ресурсы, или кто-то может взломать сайт и проставить кучу не видимых ссылок используя display:none. Поэтому, периодически очень желательно парсить весь сайт и проверять не появились ли какие-то новые не опознанные внешние ссылки.

Например, как на этом ресурсе

Мы видим:

  1. очень много исходящих ссылок 250+, которые нужно теперь детально проверить
  2. видим внешние ссылки, которые ссылаются на страницы с кодом ответа 404. Такие ссылки желательно или исправить, или совсем убрать со своего сайта.

Для того чтобы понять, какие именно страницы сайта ссылаются на определенную внешнюю страницу вы:

  1. нажимаете на интересующую вас страницу
  2. внизу во вкладке In Links получаете список страниц сайта, которые ссылаются по этой внешней ссылке.

Кроме такого точечного анализа во вкладке External, с помощью выгрузки Bulk Export -> All Out Links, вы можете сделать полную выгрузку в Excel по тому какая страница сайта на какую внешнюю страницу ссылается.

4. Response Codes

Эта вкладка содержит всю информацию по ответам сервера для внутренних и внешних ссылок. В идеальном варианте, нужно, чтобы 100% страниц были с 200 кодом ответа. Но, на практике часто имеем вот такую картину

Поэтому, рассмотрим, что делать в таком случае

Поиск страниц / url с ответом сервера 404 ошибка

В итоге получаем все страницы, которые отдают 4xx ответ сервера. Очевидно, что мы должны понять причину появления таких ошибок и исправить такие ссылки, которые приводят к ошибкам 4xx.

Кроме данных, по каким страницам у нас выдается 4xx ошибки, нам важно понимать с каких страниц стоят ссылки на эти страницы. Аналогично, пункту Анализа внешних ссылок мы или точечно, по каждой страницы, можем проанализировать внизу на вкладке In Links или можем воспользоваться экспортом (Bulk Export -> Client Error (4xx) in Links) по всем страницам, которые ссылаются на битые страницы и уже проводить детальный анализ с помощью Excel.

Поиск редиректов внутри сайта

Внутри сайта не должно быть редиректов, так как это негативно влияет на передачу веса по страницам сайта.

Анализ лучше всего проводить в Excel, для этого фильтруем на ошибки 3xx и делаем экспорт

Получаем файл с названием response_codes_redirection_(3xx).xlsx в котором

  • все страницы, по которым происходит редирект указаны в колонке Address
  • на какие страницы делается редирект указаны в колонке Redirect URI

Теперь, сделав еще выгрузку отчета из Bulk Export -> Client Error (4xx) in Links и получив файл с названием redirection_(3xx)_in_links.xlsx в котором

  • все страницы, по которым происходят редиректы указаны в колонке Destination
  • страницы с которых стоят ссылки на страницы по которым происходит редирект указаны в колонке Source

нужно сделать так, чтобы все страницы из колонки Source файла redirection_(3xx)_in_links.xlsx ссылались на правильные страницы Redirect URI из файла response_codes_redirection_(3xx).xlsx. По этому, алгоритму, конечно, есть разные нюансы (в основном, когда происходит 302 редирект для страниц с авторизацием, корзиной, личной информацией, а вы при этом не залогинены в системе), но, в общем он подходит для 95% и позволяет устранить редиректы внутри сайта.

Нюансы: что в выгруженных файлах будут также ссылки и на внешние сайта, но, в идеале, все такие не правильные ссылки тоже нужно исправить.

Поиск ошибок сервера у себя на сайте

Благодаря этому отчету вы сможете понять по каким uri у вас появляются ошибки, связанные с работой сервера. Тут разбираемся в причине появления и оперативно фиксим все такие проблемы. Часто причина возникновения может быть, что мы очень активно парсили сайт и сервер упал. Поэтому, сразу желательно проверить работоспособность сайта и парсить сайт уже при меньших нагрузках.

Страницы без ответа сервера – No Response

Аналогично, нужно разобраться в чем проблема, но, в основном, данная проблема по страницам возникает когда идет большая нагрузка от программы Screaming Frog и хостер просто блокирует ваш ip. Как раз в этом случае

При анализе сайта, хостер заблокировал наш ip J и мы получили такие ответы сервера. Эта проблема решается звонком в хостинг компанию или сменой ip (см. Использование proxy). Дальше значительно уменьшаем скорость парсинга, чтобы больше не получать такую проблему.

5. URL

На данной вкладке, можно проанализировать различные ошибки, непосредственно связанные со структурой url адреса.

Как найти ошибки связанные с url / url адресом

Рассмотрим какие данные мы можем оперативно получить по различным фильтрам на вкладке URI:

  • Non ASCII Characters – список URI который имеет символы в нем, не включенные в схему кодирования ASCII символов. Важно всё исправить, так как потом появится масса проблем с простановкой ссылок на такие страницы
  • Underscores – использование нижнего подчеркивания вместо использования дефиса в качестве разделителя между словами. В идеале, должен использоваться дефис, но, на данном этапе это уже не очень принципиально.
  • Duplicate – важнейший фильтр, он нам сразу, на основе хеша страниц, показывает дублирующие страницы на сайте. Сразу необходимо разобраться в причинах появления таких дублирующих страниц и оперативно заняться исправлением причины их возникновения.
  • Dynamic – список uri которые содержат параметры (типа ‘?’ или ‘&’ ). Желательно как минимум ознакомиться с этими страницами, но, в общем может быть, что всё нормально и ничего исправлять на сайте не нужно.
  • Over 115 characters – страницы которые имеют длину больше 115 символов. Очень важно не переспамливать ключевыми словами в урл и проектировать сайт, чтобы таких больших uri не получалось, так как это один из сигналов для поисковых систем, чтобы более пристально проверить на переспам остальные параметры данной страницы. Фиксить на текущем сайте можно если вы четко понимаете, что санкции получены именно за переспам, а, лучше всего, этот момент учитывать на этапе проектирования сайта.

6. Page Title

Данная вкладка содержит различную информацию по мета-тегу title. Это один из важнейших элементов на сайте, поэтому, нужно довольно внимательно подойти к изучению всех нюансов.

Как найти все пустые и дублирующиеся в коде title на сайте

Зафильтров по Missing мы получим список страниц без тега title. Очевидно, что для всех таких страниц нужно прописать релевантный странице title.

По фильтру Multiple можно увидеть где используется больше одного раза мета-тег title. Это редкая ошибка, но, нужно не забывать проверять данный момент.

Дублирующиеся title или как найти дублирующиеся страницы

По дублирующемуся title мы можем быстро определить страницы с одинаковым контентом, после этого, выясняем типичные ошибки и оперативно вносим правки на сайт.

Например, в данном случае,

имеем классические примеры:

  • Проблема с системными страницами сайта, которые отвечают уже за процесс покупки и, фактические, не должны быть в индексе
  • Проблема связанная с пагинацией на сайте: на первую страницу каталога проставляется ссылка с параметром, которого, на самом деле, не должно быть

Одинаковые title и h1

Очень желательно, чтобы у вас на сайте были разными title и h1. В первую очередь это касается контентных проектов или контентных разделов на коммерческих сайтах. Вы должны просмотреть список всех страниц, зафильтровав по Same as H1, и подправить такие страницы.

Оптимизация title

После того, как внесены все основные правки, можно заняться мега оптимизацией title и исправить все тайтлы страниц которые не удовлетворяют этим параметрам

Ошибки Over 65 characters и Over 482 pixels показывают вам, что текущий тайтл не будет весь отображён в результатах выдачи, а Below 30 Characrers и Below 200 pixels показывают вам, что тайтл короткий и, в теории, его можно было бы увеличить, чтобы он более подробно раскрывал суть страницы.

Более подробно по оптимизации title см. здесь: https://seoprofy.ua/blog/wiki/title-tag

7. Descripion

Данная вкладка содержит различную информацию по мета-тегу description. Данный мета-тег в основном используется для формирования описания к снипету на страницах результатов поиска, поэтому, грамотное его заполнение может значительно увеличить долю кликов по вашему сайту.

Кроме этого, например, Google довольно часто, при отсутствии или банальном шаблоне генерации description, берет это за один из сигналов и в результате отправляет страницы сайта в дополнительный индекс. Поэтому, данному мета-тегу тоже нужно уделять довольно много внимания.

По данным анализа тут всё аналогично к мета-тегу title.

8. Keywords

Вкладка с информацией по мета-тегу keywords.

Данный тег давно уже потерял свою значимость, поэтому, особого внимания, кроме некоторых случаев, не стоит ему уделять. Единственный нюанс, что если вы все-таки заполняете keywords, то, его содержимое должно быть уникальным и четко описывать текущую страницу.

H1

Подробная информация по использованию тега h1 на сайте. Хоть данный тег, уже, и не имеет большого значение для поисковой оптимизации, но, все-равно его нужно правильно использовать.

  • Missing – все страницы на которых отсутствует тег h1. Желательно, чтобы все страницы содержали этот тег и четко описывали про что текущая страница. Это больше важно для пользователей, которые попадают на сайт, чтобы они могли быстро сориентироваться про что данная страница.
  • Duplicate – все дублирующиеся h1 внутри сайта. Почти всегда h1 должен быть уникальным для каждой страницы. Данная проблема часто возникает, когда через этот заголовок делают лого или название сайта, тогда имеем проблему, что на всех страницах один и тот же h1.
  • Over 70 characters – h1 с длиной больше чем 70 символов. В идеальном варианте, лучше не делать очень длинные заголовки страниц.
  • Multiple – мы всегда должны помнить, что «тег h1 всегда один». Поэтому, мультииспользование данного тега не допустимо и все такие ошибки должны быть исправлены на сайте.

H2

Вся информация, связанная с использованием тега h2 на сайте.

Из данного раздела, оперативно, можно определить неправильно использование заголовков <h…> при верстке сайта. Это видно если мы имеем много дублирующихся h2, которые можно посмотреть по фильтру Duplicate.

В данном случае, мы видим, что при верстке был использован тег h2, чего не стоило делать, а желательно, использовать стили и тег <div>.

Images

С помощью этой вкладке можно проанализировать ошибки при использовании картинок на сайте

  • Over 100kb – можно найти рисунки с размером больше 100kb.
  • Missing Alt Text – рисунки с отсутствующими описаниями в ALT.
  • Alt Text Over 100 Characters – рисунки с очень большим описанием (больше 100 символов).

Оптимизацией картинок можно заняться уже на финальном этапе, когда исправлены все технические нюансы и оптимизирована контентная часть сайта.

Directives

На данной вкладке собрана вся информация, связанная с использованием в meta заголовке, canonical, а также rel=“next” и rel=“prev”. Используя соответствующие фильтры, вы можете посмотреть на каких страницах используется та или иная директива для поисковых роботов. Рассмотрим в качестве примера, проверку использования rel=»canonical»

Проверка правильности использования rel=»canonical»

На вкладке Directives воспользовавшись фильтрами Canonical, Canonicalised, No Canonical вы можете проверить правильность использования атрибута rel=»canonical».

Желательно выборочно просмотреть страницы на которых стоит rel=»canonical» и проверить:

  • правильно ли выбрана логика работы: правильно выбрана каноническая страница, ссылка ведет на релевантную страницу, страница на которую ведет каноническая ссылка имеет код ответа 200, …
  • нет двойного использования данного параметра

Например, мы можем получить вот такую ситуацию

где:

  1. 2 раза используется атрибут rel=»canonical»
  2. И во втором случае на всех страницах сайта каноническая ссылка ведет на главную страницу, что является очень критической ошибкой использования данного атрибута.

Кроме этого, с помощью отчета Reports -> Canonical Errors

Вы можете получить список ошибочного использования данного атрибута.

Более подробно про использование атрибута rel=”canonical” см. здесь: https://seoprofy.ua/blog/optimizaciya-sajtov/rel-canonical

AJAX

Данная вкладка показывает все страницы, которые получены в результате использование AJAX.

Custom

С помощью данных этой вкладки вы можете увидеть список тех страниц, которые соответствуют заданным фильтрам из Настройка своих параметров поиска текста на страницах.

Анализ файла sitemap.xml

После аудита сайта путем его парсинга, желательно, проверить какие url указаны в файле sitemap.xml. Там могут быть

  • несуществующие страницы,
  • страницы, по которым происходят редиректы
  • возможно, страницы, которые могут создавать дублирующий контент.

Для этого вы должны скачать файл sitemap.xml себе на компьютер и открыть его в режиме List:

После этого, произойдет, сбор данных по всем страницам, которые указаны в данной карте сайте и нужно, сделать заново все проверки, которые указаны выше, особенно уделив внимание разделу Response Codes, так как нужно, чтобы все страницы отдавали код ответа 200.

seoprofy.ua


You May Also Like

About the Author: admind

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.