SEO-аудит сайта от Сергея Кокшарова. Технический и внутренний аудит

Содержание

Очень часто молодые оптимизаторы или начинающие владельцы сайтов, которые задумываются над поисковым продвижением, забывают (или вообще не знают) о необходимости проведения SEO-аудита своих сайтов. А такие аудиты могут помочь сэкономить бюджет на рекламу и добиться хорошей видимости сайта в результатах поисковых систем.

4 сентября Сергей Кокшаров, эксперт-аналитик в области поисковой оптимизации и автор популярного в Рунете SEO-блога Devaka.ru провел для академии интернет-маркетинга WebPromoExperts вебинар «SEO-аудит своими силами», в котором рассказал, зачем нужны SEO-аудиты, на что следует обратить внимание в первую очередь при их проведении, и какими инструментами пользуется он лично для решения тех или иных задач.

Sergey_Koksharov

Сергей рассказал о том, что существуют два направления при анализе сайта:

Первое — аудит (это может быть какой-то определенный контрольный список, по которому проверяется наличие стандартных требований). Аудит можно проводить самостоятельно, он решает более общие вопросы.

Второе — экспертиза. Она уже требует опыта и отвечает на более узкие вопросы. Например, такие как:

  • Как оптимизировать перелинковку для контент-проекта?
  • За что был наложен фильтр и как от него избавиться?
  • Как откорректировать стратегию развития сайта для получения большего числа посетителей?
  • Почему по запросу [часы касио] упали позиции, а по другим все ок?

Здесь могут понадобится нестандартные инструменты; возможно их придется заказать у разработчиков по специальному техзаданию.

Оба этих направления решают общую задачу — помогают улучшить сайт, получить больше посетителей и улучшить видимость в поиске.

Далее Сергей более подробно остановился на аудите, не затрагивая глубокие вопросы, собираясь дать примерный план аудита, примеры и очертить общее направление движения, чтобы можно было его провести самостоятельно.

Для чего нужен SEO-аудит?

Он позволяет найти неиспользованный потенциал и, если полученные рекомендации внедряются, видимость ресурса в поисковых системах с большой вероятностью улучшится.

Какие сложности возникают при проведении?

1. Требуются хотя бы небольшие аналитические навыки. Если их нет, лучше попросить знакомых или заказать данную работу у подрядчика(будет возникать ряд проблем).

2. Сложно без опыта и примеров. Необходимо иметь доступ к некоторым инструментам и владеть какими-то методиками.

3. Нужно ориентироваться в современных тенденциях поисковых алгоритмов.

Анализируя сайт, прежде всего нужно разбираться в том, как он работает. Хотя бы понимать, что он состоит из html-кода, что у него есть http-заголовки, текстовые ссылки. Нужно представлять, как работает поисковая система. Возможно, не очень глубоко, но хотя бы в общих чертах понимать принцип ее работы.

Основные этапы работы поисковой системы

1. Составление плана.

Поисковая система составляет план — на какие сайты зайти, какие новые страницы индексировать или переиндексировать. На каждый момент времени у нее есть план, что сейчас делать. На данном этапе вебмастеру нужно показать поисковой системе, что на сайте появилось что-то новое или изменилось что-то из старого.

2. Сбор данных.

Потом робот собирает данные, так называемый процесс “crawling”. Поисковая система взаимодействует уже непосредственно с сайтом. На данном этапе необходимо обеспечить максимально эффективное взаимодействие с поисковыми роботами.

3. Индексация Дальше происходит индексация сайта (сохранение полученных данных). Проверка индексации страниц своего сайта должна выполняться вебмастером постоянно, для того, чтобы избежать ошибок индексации и вовремя заметить выпадение каких-либо страниц из индекса.

4. Вычисление Потом вычисление различных метрик — таких как PageRank, SpamRank и TrustRank на основе характеристик текста и ссылок.

5. Ранжирование

Происходит непосредственно в тот момент, когда пользователь вводит свой запрос. (На основе сложной формулы заложенной в поисковую систему.)

6. Оценка качества результатов поиска

На последнем этапе поисковая система обязательно оценивает качество результатов поиска. То есть, насколько пользователь остался доволен, насколько сайты находящиеся сейчас в топе заслуживают быть там и стоит ли изменить их позицию.

Что нужно анализировать в аудите?

Здесь на помощь приходят метрики эффективности, которые помогают определить — насколько эффективно работает сайт или насколько эффективно он оптимизирован.

Сергей выделил четыре основные метрики:

Sergey_Koksharov_1

Если выбирается метрика «Траффик», стоит уделить внимание (кроме прочего) сниппету, его оформлению, сравнить с другими сниппетами — насколько он привлекает пользователя?

Если целью является постоянный рост семантического ядра, чтобы на сайт заходили по большему количеству запросов — нужно добавлять больше товаров, новые тексты и так далее.

Метрики часто взаимосвязаны между собой. Например, если мы хотим улучшить позиции — возможно, нам необходимо где-то переписать тексты, что непосредственно затрагивает и юзабилити, и визуальное восприятие сайта.

Последняя группа метрик — технические, о которых редко говорят, но именно они чаще всего встречаются в SEO-аудитах. Это все те моменты, благодаря которым сайт максимально эффективно взаимодействует с поиском в техническом плане.

Без каких инструментов нельзя обойтись?

1. Бесплатный онлайн сервис SEO-cheklist. В этом чеклисте есть ряд пунктов, следуя которым можно отмечать для себя, выполнен или нет тот или иной пункт.

2. Также очень пригодится бесплатная программа Xenu. Она позволяет сканировать сайт и находить внутренние ошибки, скорость ответа страниц (то, о чем говорилось в техническом плане).

3. Для браузеров есть определенные плагины, на которые стоит обратить внимание.

  • Web Developer Toolbar для Mozilla Firefox позволяет отключать «куки», картинки, кэш, проверять валидность кода и прочее. Он упрощает работу с кодом.
  • Firebug, которым можно посмотреть сам код в очень удобной форме, загрузку каждого элемента страницы. С помощью этого плагина можно выяснить, загрузка каких элементов страницы занимает больше всего времени.

4. И, конечно, же не обойтись без Яндекс.Метрики, Google Analitycs и «Панели для веб-мастеров» Google или Яндекса.

После бесплатных инструментов Сергей перечислил также и платные. Даже если их не покупать, ознакомиться с ним все же будет нелишним. Это:

  • Screaming frog SEO spider очень похож на Xenu, но он позволяет более гибко проводить анализ и находить дубликаты.
  • Key Сollector позволяет работать с семантическим ядром и производить более широкий и удобный анализ семантики.
  • Ahrefs позволяет проводить анализ внешней оптимизации по различным разрезам.
  • Его альтернатива — Majestic SEO. У Маджестика есть ряд других особенностей: можно посмотреть историю появления ссылочной массы. Есть метрики, которые помогают определить насколько сайт «трастовый» (в какой мере ему доверяют поисковые системы).

Виды аудита

В зависимости от того, какие проблемы и метрики мы изучаем, аудит приобретает то или иное направление:

  • Технический
  • Внутренний
  • Внешний
  • Анализ семантики
  • Анализ структуры сайта

Далее Сергей подробней остановился на каждом из видов.

Технический аудит

  • Что анализируем?
  • Код сайта
  • Скорость загрузки страниц
  • Объем страниц
  • HTTP-заголовки
  • robots.txt и meta-robots

Полезные инструменты для проведения технического аудита:

Панели для веб-мастеров

  • Web Developer Toolbar
  • Firebug
  • Xenu Link Sleuth
  • Screaming frog SEO spider
  • Site Auditor

Сергей привел несколько примеров. Например «Сообщения об ошибках в панели для вебмастеров».

Sergey_Koksharov_2

Здесь показано, сколько 404-ых ошибок увидел робот, сколько страниц сайта запрещено файлом robots.txt, сколько содержат тег noindex. То есть, конкретная информация о том, как поиск видит документы и что рекомендуется исправить.

А вот другой пример — результат работы программы Site Auditor. Здесь можно проанализировать как общие характеристики (тИЦ, PageRank), так и посмотреть, сколько страниц сайта проиндексировано в определенных каталогах. Часто эта информация необходима.

Sergey_Koksharov_3

Еще один пример — результат работы Web Developer Toolbar, когда отключаются «куки» и смотрится, как сайт выглядит без них. В данном случае левое меню формировалось исходя из того, какую страницу пользователь посещал в последний раз.

Sergey_Koksharov_4

Естественно поисковая система не использует «куки»; она видит другое меню, не такое, как пользователь. На это тоже важно обращать внимание и знать, как видит сайт поисковая система.

Sergey_Koksharov_5

Другой пример работы этой же программы — когда можно посмотреть сводную статистику по документу, какой его размер, сколько составляют картинки, различные flash-объекты или скрипты, стили. Посмотреть, что мы можем в данном случае оптимизировать.

На что стоит обратить внимание при техническом аудите? Часто допускаемые ошибки:

  • Плохой хостинг
  • Отсутствие 404 страницы
  • Большой robots.txt для Google — это зло!

Пример плохого хостинга. Вот что может получиться, если немного увеличить нагрузку на сайт. Хостинг не выдерживает и выдает 502-ю ошибку.

Sergey_Koksharov_6

Это плохо, потому что когда на сайт заходит поисковая система, она должна получать 200-й код — сайт в порядке или 304-й — содержание не изменилось.

404-я ошибка. Многие забывают ее оформить. Эта ошибка значит, что пользователь попал на страницу, которая не существует.

Обязательно нужно проверить, есть ли на 404-й странице какая-то информация. Люди могут переходить на несуществующие страницы, и логично в таком случае предоставить им какую-то полезную информацию, чтоб они не уходили, а продолжали работать с сайтом.

HTTP-заголовки — даже создавая 404-ю страницу, некоторые забывают в заголовках указать, что у нее код 404-й ошибки и отдают вместо него 200-й. Это означает, что такая страница существует и должна быть включена в индекс. В данном случае проверка была произведена с помощью плагина Firebug.

Sergey_Koksharov_7

Про Robots.txt: некоторые сайты заводят очень длинный файл Robots.txt надеясь, что робот Google не будет переходить по этим страницам.

Sergey_Koksharov_8

Для Яндекса это нормально, это работает и он исключает такие страницы из индекса. А Google по этим страницам не переходит, но и не исключает их из поиска, если он раньше их уже проиндексировал, или если на эту страницу ссылается много ссылок.

В результате получается мусорный индекс, когда сниппеты содержат текст «Описание веб-страницы недоступно из-за ограничений в файле robots.txt». Но, тем не менее, эти файлы в индекс добавляются.

Sergey_Koksharov_9

Внутренний аудит

Здесь в первую очередь нужно анализировать:

  • Индексацию и дубли
  • Заголовки, мета-описания, контент
  • Код сайта
  • Работоспособность ссылок

Полезные инструменты — уже стандартный для нас набор программ и дополнение к нему — «Операторы запросов».

Вот пример с повторяющимися мета-описаниями в Google Webmaster Tools.

Sergey_Koksharov_10

Сервис обязательно нужно использовать, смотреть и исправлять эти ошибки.

1. Основной индекс Google. У Google есть два типа индекса — основной и дополнительный. Все результаты, которые берутся для ранжирования, берутся из основного; а те, которые попадают в дополнительный, с большой вероятностью не показываются пользователю.

Есть оператор &, которой при вводе поискового запроса, как на изображении ниже, показывает в результатах — какие именно страницы находятся в основном индексе:

Sergey_Koksharov_11

Если убрать этот оператор, то появятся все страницы, как из основного, так и из дополнительного индекса.

2. Тестовые поддомены в индексе.

Sergey_Koksharov_12

На слайде пример, когда разработчики забыли закрыть от индексации тестовый поддомен. И это создает большое число дублей, что мешает сайту ранжироваться по каким-то низкочастотным запросам.

3. Код сайта.

С помощью инструмента Firebug можно анализировать код внутри сайта. Следует обратить внимание на следующие ошибки:

  • Скудный meta-description
  • Отсутствие бренда в заголовках
  • Наличие малозначимых страниц

Novatek — это крупный интернет магазин. В прошлом году там была ссылка на страницу с уцененными товарами (и до сих пор присутствует).

Sergey_Koksharov_13

Когда пользователь переходит по ней, он попадает на пустую страницу. Для пользователя это не несет ценной информации, для поисковика тоже. Он добавляет эту страницу в дополнительные результаты.

Отсутствие жесткой модерации — плохо, это надо анализировать. Например, искать в пределах сайта какие-то стоп-слова.

Sergey_Koksharov_14

На слайде продемонстрировано, как на одном из известных форумов (он был взломан или модератор не уследил) на странице находится поисковый спам. Это плохо для самого сайта, так как поисковик, находя поисковый спам, снижает свое доверие к ресурсу.

Следующий тип анализа — анализ внешней оптимизации. Об этом в следующей статье.

Смотреть видео выступления Сергея Кокшарова: