Анализ сайта. На что обратить внимание при проведение SEO — аудита

Просыпаетесь в холодном поту, и думаете… Ведь мой сайт может работать лучше, давать больше конверсий, приносить больше доход, но что-то не так, и эта мысль не дает вам покоя. Что же это может быть? Большинству людей понятно, что есть 2 составляющие успеха вашего сайта - внутренняя оптимизация и внешняя.технический seo аудит своими руками

И сегодня, мы немного разберемся в этом, а поможет нам в этом анализ сайта. Джон Мюллер, в каждом обращении к народу (вебмастерам, владельцам сайта, предпринимателям в сфере интернет) говорит нам, чтобы мы работали над сайтом, делали его для людей, лучше, удобней. Но не всегда после запуска вашего сайта в мир всемирной паутины он полностью готов к покорению вершин. Чтобы достичь апогея в сфере поисковой оптимизации, давайте рассмотрим несколько пунктов оптимизации, которые повысят видимость вашего сайта в поисковых системах.

Seo анализ сайта

Robots.txt - сам файл не поможет вам попасть в топ, но, некорректно составленный роботс, может изрядно испортить существование в поисковой выдаче.

В robots.txt вы сможете:

  • указывать отдельные правила для разных поисковых систем (если в этом есть необходимость) используя директиву User-agent;
  • закрыть файлы, директории которым поисковым роботам не надо посещать;
  • указать директиву sitemap.xml для грамотного индексирования поисковым роботом страниц/разделов вашего сайта

корректный файл robots с googlebot

Или же указывать правила для всех поисковых систем

корректный файл robots.txt с открытой директорией user-agent

Поисковые роботы Google относятся к файлу robots.txt как к рекомендации, так что обнаруженные дубли/нежелательные страницы необходимо закрывать с помощью  <meta name="robots" content="noindex, nofollow" />

Что такое файл sitemap.xml

Sitemap.xml - это файл, в котором содержится информация для поисковых систем, в которой вы указываете:

  1. местонахождение страниц на сайте;
  2. частоту обновления;
  3. время их последнего обновления;
  4. релевантность страниц в иерархии сайта.

То есть по сути, файл sitemap.xml облегчает жизнь и работу поисковым роботам. Корректно составленный файл, повысит частоту посещения сайта роботами (Google видит все!)

Очень важно делать файл автогенерируемым и автообновляемым - т.е. если у вас интернет-магазин, то при добавлении товара в каталог, страница с этим товаром появится в сайтмапе.

Пример правильного файла sitemap.xmlправильный файл sitemap.xml

Контент сайта

Сколько было сказано про важность контента, и сколько еще будет, но факт остается фактом. Важность контента колоссальна.

По сути контент - и есть 3 кита на которых стоит интернет. Контент определяет поведенческие факторы посетителя на вашем сайта, сколько он провел времени, какие действия совершил (совершил ли покупки на вашем сайте, если у вас интернет-магазин), а это один из важнейших факторов ранжирования. Именно контент показывает, насколько ваш сайт хорош для пользователей, на этой основе и будет ранжироваться в поисковых системах.

Какой же должен быть контент?

  1. Полезным
  2. Уникальным
  3. Оптимизированным

Не существует однозначного ответа по рекомендации объема текста на сайте. Чем информативней - тем лучше. Пытайтесь написать то, о чем вы бы хотели знать, затронуть все самые мельчайшие моменты темы, и тогда вы добьетесь максимального результата!

Существует много сервисов по проверке уникальности контента/текста, одним из лучших, на мой взгляд, является advego plagiatus

проверка контента сайта

Мета-теги

Важность мета-тегов сложно переоценить, но легко недооценить. Мета-теги title и description формируют релевантность поисковых запросов.

Title - это важнейший тег страницы. Тег title отображается в выдаче поисковой системы пользователю на его запрос. Поэтому в нем необходимо отображать всю суть страницы. Чем ближе к началу находятся ключевые слова, тем лучше. Каждый тег title должен быть уникальным и по длине должен быть до 80 символов (желательно). Недавно было проведено исследование по длине тегов, и сейчас актуальной длиной тега title является длина в 57 символов, плюс минус несколько символов.

Description - отвечает за отображение краткой сути страницы. Содержимое тега description формируется для отображения сниппета. Рекомендуемая длина 150-200 символов.

H1 - этот тег, является заголовком страницы. Важно прописывать в нем ключевые слова для максимально эффективного продвижения. Чем ближе ключевые слова находятся к началу тега, тем лучше это сказывается на выдаче в поисковой системе.

Одно дело когда вы продаете холодильник и указываете четкие мета-теги для страницы, тем самым давая понять поисковым системам, по каким ключевым словам необходимо показывать страницу:мета теги пример

И когда вы не указываете теги, как поисковая система может понять, что необходимо показать?

Вывод: Корректное проставление мета-тегов отобразит суть страницы в поисковой выдаче, даст возможность пользователю выбрать именно вашу страницу по ключевым словам, и поможет вырасти в поисковой выдаче вашему сайту.

Изображения для ранжирования в поисковых системах

Некоторые вебмастера забывают, насколько значимым являются картинки/изображения/фотографии на сайте. Поисковые системы сами ищут и предоставляют релевантные ответы на запросы пользователя, и если именно картинки с вашего сайта поисковики находят чаще остальных, и пользователи по ним переходят, это сыграет на руку вашему сайту, поведенческие факторы рулят.

И тут возникает вопрос - какую информациюя следует предоставить поисковой системе чтобы она была полезной?

Ответ очень прост - актуальную информацию отражающую суть вашего контента на странице. Допустим у вас сайт о японской борьбе - сумо, и много в наличии картинок про этот вид спорта. Но в одной ситуации, изображение и атрибуты тега “img”, такие как “alt”, “title” заполнены, и предоставляют ценность для поиска, а в другой пусты и не несут полезной информации. В первом случае, вы получаете преимущество среди конкурентов. Суть такова, прописывайте описание изображения - название самого файла, а так же атрибуты тега “img” такие как “alt” - отвечающий за отображение названия изображения, в случае если сам файл изображения не доступен, и “title” - который отображает суть изображения.борьба сумо

Дубли страниц

Неприятные вещи рассмотрим, а именно дубли страниц. Причин их возникновения уйма:

  1. Недостатки формирования url-адресов в CMS
  2. Невнимательность человека который заполняет страницы в CMS
  3. Смена структуры сайта (редизайн)
  4. Черная магия

Есть много программ, которые выявляют дубли страниц - Netpeak spider, Xenu, Screaming frog. Лично я предпочитаю последний вариант, особенно учитывая то, что сейчас вышла 6 версия Фрога, в которой появилось много новых полезных вкусняшек.

Сайт взял рандомный в выдаче, странице эдак на 8, для наглядности

поиск дублей страниц

Для устранения дублей существует масса способов. Такие как:

  1. Настройка 301 редиректа
  2. Использование <meta name="robots" content="noindex, nofollow" />
  3. Закрытие отдельных страниц в robots.txt
  4. Использование rel=”canonical” 

Так же еще бывают частичные дубли - страницы с частичным появлением контента на страницах, обычно возникает из за ошибок CMS. Искать частичные дубли удобней всего введя кусок текста со страницы, в поисковой системе, а закрывать их так же как и обычные дубли.

Анализ ссылочной массы

Так, тут я буду краток и не буду полностью расписывать в этой статье что такое бэклинк, какой лучше бэклинк проставлять, но на примере покажу, чего не должно быть.

Смотрим на изображения, и помогаем seo-шнику Ване, найти 100 000 отличий. Скриншот номер 1:

анализ бэклинков

Скриншот номер 2

качественный анализ бэклинков

Уже догадались в чем дело? Да вы правы, меньше чем за полгода, как видим в мае, у ребят стало на 100 000 ссылок больше. Когда я первый раз увидел ЭТО, реакция была следующая:

mother of god

воу воу воу, мне это не нравится

При этом проанализировав количество и качество бэклинков:

backlinks

Ссылки-сквозняки проставлены с *****сайтов всей Европы. Могу сказать вам с уверенностью, сайт долго не проживет. Сейчас он находится на неплохих позициях в гугле, хоть в яндексе уже и выпал из поиска (и попал под АГС), но справедливость восторжествует, и подобные сайты с черными сеошниками не будут в топе (во всяком случае не навсегда:) )

Строить стратегию ссылочного продвижения используя соц. сигналы, крауд-маркетинг, и естественный линкбилдинг, размещая ссылки на качественных, тематических ресурсах, которые будут лить столько трафика, что вы будете еще думать, а что с ним делать, как вот Обама на фото:

obama заказал лендинг

Кстати, Барак у нас заказывал лендинги (обещал нашему специалисту Роману отправить благодарственную открытку, но пока глухо)

Анкор-лист, как же его составить?

Часто у сайтов, по крайней мере странный анкор-лист:

анкорлист

Как примерно выглядит нормальный анкор-лист:

анкорлист фокстрота

Как лучше всего построить анкор-лист спросите? Да все банально просто. Есть 2 варианта, первый полегче, второй сложнее.

Первый вариант составления анкор-листа:

Нам нужен сервис, на котором можно смотреть облако/списки анкоров и ключевые слова для продвижения. Затем вбиваем в ПС ключевики, находим конкурентов, и через сервис majestic/semrush/ahrefs анализируем и строим свой собственный список для продвижения.

Второй вариант, это методом проб и ошибок, строить самому облако анкоров, с помощью интуиции и паучьего чутья.

Советую первый, более безболезненно, быстро и действенно.

В этой статье мы с вами рассмотрели несколько пунктов оптимизации сайта, если будет интересно и появится много комментариев, обещаю написать еще интересную статью по SEO.

В общем, заказывайте анализ сайта у нас, и мы поможем вам оказаться на топовых позициях. Всем добра и улыбок 🙂