24 Апреля 2024, 23:56
SEOPRAVDA.RU


Автор Тема: SEO-аудит для новичков самостоятельно  (Прочитано 10281 раз)

0 Пользователей и 1 Гость просматривают эту тему.

06 Мая 2016, 23:31
Прочитано 10281 раз
Оффлайн

Сергей Нижегородцев

СОЗДАТЕЛЬ (форума)

SEO-аудит для новичков самостоятельно

Хорошие советы для новичков по самостоятельному проведению сео-аудита сайта нашел на блоге getsocial.ru - ссылка

Часть 1 руководства по SEO-аудиту

Зачем нужен SEO-аудит? Приступая к работе с сайтом специалист по оптимизации всегда проводит аудит, чтобы определить в каком состоянии находится ресурс сейчас. Это необходимо, чтобы составить план работ, найти ошибки и “узкие” места на сайте. Провести анализ сайта вполне можно самостоятельно - для этих целей мы сделали руководство по аудиту и представляем его вам.

Мы рекомендуем периодически делать аудит продвигаемого ресурса, вне зависимости от того кто вы - оптимизатор или владелец сайта. За время своего существования на сайте может произойти смена структуры, либо появляются какие-то технические ошибки, плюс смена алгоритмов поисковых систем обязывает ресурс соответствовать требованиям Яндекса и Google.

Мы приводили списки инструментов, которые будут полезны для проведения аудита  1- ссылка и 2 - ссылка

Разбиваем статью на две части, потому что будет много текста. Специалистам по SEO будет полезно проверить себя, а новичкам —  сохранить эту статью, как план работ, чтобы по нему провести SEO-аудит.


Внутренний аудит сайта

Структура сайта

Для начала нужно проверить правильность и удобство структуры сайта. В этом помогут программы Screaming Frog ссылка, Xenu ссылка или Netpeak Spider ссылка. Просто укажите домен сайта и программа проанализирует страницы, пример:


Проведите анализ ресурса по следующим пунктам:

1. Все страницы сайта должны быть распределены по тематическим группам. К каждой группе должен быть доступ из меню сайта. Например, товары должны лежать в каталоге, причём кирпичи отдельно, а ковры отдельно. Звучит банально, но мы часто сталкивались с каталогами, где всё лежит практически в “одной куче”. Разбивка очень плохая и невозможно угадать, где искать нужный товар или услугу. Особенно этим “страдают” сайты объявлений.

2. Есть золотое правило - любая страница сайта должна быть доступна в 3 клика. Ну ладно, в 4. Но это максимум. Некоторые ресурсы настолько похожи на квест-бродилку, что за найденную страницу должны давать приз. Особенно этим грешат новостные сайты.

где я?

3. Если структура сайта достаточно сложная, то не забудьте о “хлебных крошках”. Это дополнительная навигация, которая поможет клиенту понять где он находится и как перейти на раздел выше уровнем.

хлебные крошки на wikimart

4. Не забудьте про поиск на сайте. Если материалов очень много, то пользователю будет удобнее найти нужную страницу через поиск, чем “бегать” по разделам.

5. Не делайте Flash-навигацию. Поисковые роботы просто не смогут найти ссылки на разделы вашего сайта.

6. Используйте внутреннюю перелинковку между страницами. Неплохо помогают в этом такие блоки, как: похожие статьи, с этим товаром покупают, интересное по теме, рекомендуем и т.д.

блок с рекомендуемыми публикациями на Cossa

Аудит контента

Проверка оптимизации контента - важный этап. От этого зависит: смогут ли поисковые системы находить сайт по ключевым словам, как будет выглядеть сниппет сайта в выдаче.

Текстовый контент

Напоминаем, список инструментов для аудита сайта был дан выше.

1.Уникальность текстов на сайте — что бы не писали об этом, но тексты должны быть уникальные. По крайней мере — бОльшая часть контекнта на сайте. Если ваш контент скопировал другой ресурс, то требуйте, чтобы ставили ссылку на первоисточник. В большинстве случаев этого получается добиться. Переписывать  статьи, которые скопировали с вашего ресурса не нужно. Лучше стараться сделать так, чтобы ваш текст ПС проиндексировали как можно быстрее, тогда больше шансов, что он станет первоисточником.

2. Полезность тестов. По факту её сложно измерить, но если текст будет неинтересен, даже если он будет в ТОПе, то пользователь просто закроет страницу и будет искать дальше. А если отказов будет много, то это скажется и на позициях сайта в выдаче.

3. Спамность. Поисковики давно научились определять переоптимизированные тексты. Поэтому не стоит злоупотреблять бессмысленными фразами в тексте, которые нужны лишь для употребления ключевых слов.

не надо так

4. Грамотность. Проверяйте текст на ошибки перед публикацией. Это помогут сделать специальные сервисы.

5. Заголовки в тексте. При оптимизации текстов главный заголовок должен быть заключен в тег <H1>. Подзаголовки - это H2, H3 и т.д. В заголовках можно употреблять ключевые слова, но не в “спамных” формах, вроде “купить диван москва”. Пишите заголовки для людей!

6. Форматирование текста. Сплошная портянка текста - кому это интересно читать? Разбивайте текст на смысловые абзацы, используйте списки, цитаты, подзаголовки, выделяйте важные моменты курсивом или жирным шрифтом. Но не переусердствуйте — всего должно быть в меру, иначе это пойдёт во вред.

пример хорошего оформления текста в блоге texterra

Изображения

Качественные тематические фото дополнят интересные тексты. Лучше использовать платные  фото, но есть альтернатива — бесплатные фотостоки. С подборкой фотобанков можно познакомиться здесь ссылка

Для участия изображений в ранжировании поисковых систем, нужно заполнить тег <alt>. Кратко опишите изображение, используя ключевые слова.

Метатеги

Title — это заголовок страницы. Его можно увидеть в выдаче поисковых систем. Он должен быть максимально привлекательным для пользователя, отвечать на его запрос, описывать содержание страницы, включать ключевые слова. Поэтому title страниц нужно заполнять и по возможности делать эти заголовки уникальными для каждой страницы сайта.

Если возникают сложности с формулировкой заголовка страницы — посмотрите, в выдаче ПС, как это реализовано у других сайтов. Но не копируйте, а постарайтесь придумать свой заголовок.

примеры тайтлов в выдаче Яндекс

Описание страницы (description) также может появиться в выдаче, как и title, поэтому нужно составлять связный текст, который описывает конкретную страницу сайта. Желательно, чтобы дексрипшн был свой у каждой страницы, не повторял заголовок и не был переспамлен ключевыми запросами.

Заполнять meta keywords уже необязательно. Раньше тег работал, но сейчас это уже атавизм, поскольку вебмастера стали злоупотреблять им.
(Спорный момент - прим. С.Нижегородцева)

Проверить содержание метатегов сайта можно с помощью специальных программ или сервисов, например Screaming Frog.

программа показывает текст и длину метатегов

Дублирование контента

Дубли страниц возникают из-за добавления CMS-кой каких-либо динамических параметров к URL-у. Если копии страниц попадают в поле зрения поисковых систем, то они не могут определиться — какая же страница основная и часто выбрасывают из выдачи оба дубля.

Как избавиться от дублей контента? Их можно удалять, закрывать от индексации в файле  robots.txt, либо устанавливать редирект на основную страницу или использовать rel="canonical".

Часть 2 руководства по SEO-аудиту

Продолжаем разбирать особенности аудита сайтов. В первой части мы рассматривали структуру и контент сайта, а сегодня по плану технический аудит и проверка внешних факторов.

Для проведения технического аудита будут полезны следующие инструменты:

Firebug (дополнение для браузера) - ссылка
Xenu Link Sleuth (десктопная программа) - ссылка
Screaming frog SEO spider (десктопная программа) - ссылка
RDS bar (расширение для браузера) - ссылка
панели вебмастеров Яндекс ссылка и Google - ссылка

Технический аудит

Robots.txt — служебный файл, который содержит информацию для поисковых роботов. Должен быть доступен по адресу site.ru/robots.txt. Если этот файл отсутствует на сайте, то необходимо его создать.

В robots.txt можно указать следующую информацию для поисковых роботов: какие разделы сайта можно индексировать, а какие нет, главное зеркало, путь к карте сайта и т.д. Подробнее про настройку можно почитать в Помощи от Яндекса.

Необходимо убедиться, что в robots.txt закрыты от индексации серверные логи, админ-панель сайта, корзина интернет-магазина, другие технические разделы. Но обратите внимание, чтобы были открыты для ботов поисковиков скрипты сайта и CSS.

Проверить, какие разделы и страницы робот будет индексировать, а какие нет, можно, например, в кабинете Вебмастера Яндекса:


В Вебмастере Яндекса проверьте выбрано ли главное зеркало сайта. Укажите основной домен для Яндекса в robots.txt, воспользовавшись директивой Host. Например: Host: site.ru

При проведении технического аудита, необходимо замерить скорость загрузки страниц сайта. Например, в браузере Chrome можно быстро посмотреть скорость загрузки следующим образом F12→ Network→Doc→Time. Хороший результат — скорость загрузки меньше 1 секунды.


Далее проверяем код сайта на отсутствие мусора: скрытого текста, закомментированных блоков, каких-либо невидимых в публичной части элементов. Бывали случаи, когда недобросовестные оптимизаторы размещали в коде клиентского сайта скрытые от глаза пользователя тексты спамного содержания. Из-за чего сайт терял позиции в поисковых системах. Поэтому проверьте свой сайт не только с позиции пользователя, но и взглянув на него “глазами поискового робота”.

В Google Search Console можно посмотреть на сайт, как Googlebot:


Проверка URL-ов сайта может быть выполнена с помощью программ Xenu Link Sleuth или Screaming frog SEO spider.

Программа просканирует страницы вашего сайта и вы увидите все URL-ы, метатеги и заголовки, статусы страниц, сможете найти битые ссылки, редиректы, входящие и исходящие ссылки для страницы, посмотреть уровень вложенности страниц.


программа Xenu

Для начала просмотрите URL-ы страниц. Будет лучше, если у сайта настроены ЧПУ (человекопонятные урлы). Убедитесь, что адреса страниц постоянные, а движок сайта не генерирует дубли страниц.


программа Screaming frog

С помощью этой программы вы сможете найти страницы с ошибкой 404 и битые ссылки. Их нужно устранять, чтобы пользователь попадал в нужный ему раздел, а не на страницу ошибки.

Что касается самой страницы 404 ошибки, то она должна быть оформлена, чтобы помочь пользователю сориентироваться, если уж он на неё попал. Обычно на ней размещают объяснение, что страницы с таким адресом нет и предлагают воспользоваться поиском по сайту, перейти на главную страницу или в основные разделы сайта.


Если по каким-то причинам меняют URL-ы сайта, то чтобы не возникало большое количество 404 ошибок, настройте редиректы со старых адресов на новые.

Проверьте наличие корректного sitemap. Многие движки сайтов позволяют настроить сайтмап, который будет автоматически обновляться, при внесении изменений на сайт (например, добавлении новых страниц). Подробно про карту сайта можно почитать здесь. Ссылку на sitemap укажите в файле robots:
Sitemap: ссылка

Сгенерировать карту сайта помогают программы Xenu и в SEO frog:



Программа Screaming frog может сделать sitemap с учетом файла robots.txt, чтобы не включать в него разделы сайта, которые вы закрыли для индексации.

Анализ внешних факторов

Аудит внешних факторов прежде всего включает в себя проверку обратных ссылок сайта.

Инструменты:

сервисы Majestic SEO ссылка, Ahrefs ссылка, MegaIndex.com ссылка
Яндекс Метрика ссылка
Гугл Аналитика ссылка
панели вебмастеров Яндекс и Google

Зачем нужен анализ бэклинков? Ссылки — один из важных факторов ранжирования сайта. И если сайт существует не первый день, то он скорее всего имеет ссылочную массу. Указанные выше сервисы: Majestic SEO, Ahrefs, MegaIndex.com — помогут с аудитом бэклинков.

Что нужно учесть при аудите?

1. количество входящих ссылок
2. анкор-лист
3. типы ссылок
4. типы и траст доноров

скриншот из MegaIndex.com

Количество обратных ссылок может быть разным, но если на ваш ресурс ведут сотни и тысячи бэклинков, то обязательно следует учесть рекомендации ниже.

Основные требования поисковых систем к ссылочному профилю сайта:

разнообразный анкор-лист: если раньше анкоры ссылок были в основном тестовые и с содержанием ключевых слов, то сейчас идет упор на разнообразие. Желательно включить в анкор-лист и такие слова, как: читать, смотреть, здесь, тут, подробнее и т.д.;

также имеют значение типы ссылок: не стоит пренебрегать безанкорными ссылками и бэклинками с изображений;

разнообразие доноров ссылок: среди источников обратных ссылок должны быть не просто какие-то площадки с сапы, а сайты партнеров, поставщиков продукции, электронных СМИ, тематических каталогов, социальных сетей, форумов, порталов товаров и услуг и т.д.

траст доноров: лучше, если источниками ссылок будут сайты, которые уже имеют какой-то положительный вес в сети, чем ресурсы под фильтром АГС.  Поэтому нужно проверять доноров, перед размещением ссылок. В быстром анализе донора поможет расширение для браузера RDS bar.


Расширение покажет основные данные по сайту: количество проиндексированных страниц, количество входящих и исходящих ссылок по Linkpad, ТИЦ (и наложен ли на сайт фильтр АГС), PR, наличие сайта в каталогах, дата вебархива и т.д.

Социальные факторы тоже должны быть учтены при проведении аудита. Посмотрите упоминания сайта в социальных сетях при помощи поиска Яндекс Блоги.

Одни из важных социальных факторов:

присутствие странички вашей организации в соцсетях;
упоминание сайта в социальных сетях;
ссылки из соцсетей (в постах на стене, комментариях и т.д.);
использование социальных кнопок на сайте;
использование авторизации на ресурсе через соцсети.

Поведенческие факторы

При помощи ЯндексМетрики и Google Analytics оцените поведение пользователей на сайте.

Что нужно учесть при анализе поведенческих факторов:

показатель отказов (продвигаемые на сайте страницы должны отвечать запросам пользователей, иначе человек сразу уйдет с сайта и это будет засчитано за отказ);
время на сайте (посетитель должен провести на сайте достаточное количество времени, чтобы ознакомиться с информацией);
глубина просмотра (если пользователь смотрит несколько страниц сайта, значит он заинтересован, но не стоит усложнять структуру сайта, чтобы увеличить этот показатель. Иначе посетителя можно отвлечь от основной цели — произвести конверсионное действие);
конверсия форм (обратите внимание на то, насколько просто пользователь может сделать заказ с сайта или заполнить какую-либо конверсионную форму);
возвращение к поиску (если пользователь вернулся к поиску после посещения вашего ресурса, значит он не нашел то, что искал и сайт не отвечает на его запрос, и это может привести к понижению сайта по данному запросу в выдаче);
связь позиций сайта и количества переходов из поиска (если ваш сайт на первом месте, а заходов по нему слишком мало, с учетом частотности запроса, значит с сайтом что-то не так. Возможно, у ресурса некорректный сниппет в выдаче);
перемещение пользователя по сайту (Вебвизор в Яндекс Метрике позволит понаблюдать за поведением пользователя на сайте);
использование социальных кнопок на сайте (социальная активность — это хороший поведенческий показатель, если вашим сайтом делятся в соцсетях, значит он интересен посетителям);
отзывы и комментарии (это и уникальный контент для вашего сайта, и обратная связь с пользователями).

P.S. Как видите, очень много моментов нужно учесть при проведении аудита сайта. Но пренебрегать анализом ресурса нельзя, ведь сам сайт “живёт” и меняется, а значит нужно следить, чтобы не появлялись страницы с ошибками, не ломалась структура сайта, были актуальными сайтмап и robots.txt. Сайт должен быть удобным для пользователей, а информация на нём - актуальной. Когда обновляются алгоритмы поисковых систем, ресурс должен соответствовать требованиям поисковиков.

Автор: Ксения Ивлева

Источник: ссылка

30 Октября 2016, 08:05
Ответ #1
Оффлайн

Виктория



спасибо за полезную инфу - возьмем на вооружение!

оффтоп


понравилось: Тексты оптимизировались, переоптимизировались, но не выоптимизировались  :cool:

30 Октября 2016, 20:45
Ответ #2
Оффлайн

Сергей Нижегородцев

СОЗДАТЕЛЬ (форума)

Тексты оптимизировались, переоптимизировались, но не выоптимизировались

Потому что переоптимизировались, тут и аудит не нужен :)

14 Марта 2018, 00:27
Ответ #3
Оффлайн

Vovan13



очень интересная статья, спасибо!