Статья посвящена SEO аудиту, который позволит выявить явные и не явные ошибки оптимизации, индексации и общей работы сайта.
Бывают случаи, когда ломаешь голову над причиной того, почему продвижение сайта не является успешным. Но как только ошибка находится — всё становится на свои места. Рассмотрев все пункты оценки оптимизации можно найти слабые места сайта и «подкрутить» их. Итак, рассмотрим всё по порядку.
План статьи:
- Проверка на присутствие в ПС
- Проверка индексации страниц
- Проверка на запрещённые методы продвижения
- Оценка оригинальности контента
- Проверка на ошибки в HTML коде
- Анализ работы хостера
- Проверка внутренней оптимизации
- Оценка сайта глазами ПС
- Проверка региональной зависимости
Проверка на присутствие в ПС
Первым делом проверим сайт на присутствие в поисковых системах. Получить результат можно, посмотрев, есть ли страницы сайта в индексе (вместо site.ru вписываем свой домен):
Яндекс — h++p://yandex.ru/yandsearch?serverurl=www.site.ru
Google — h++p://www.google.ru/search?q=site:www.site.ru
Рамблер — h++p://nova.rambler.ru/search?sort=0&filter=http://www.site.ru
Если присутствует 1 и более страниц — сайт находится в ПС, то есть индексация есть. Если её нет, то добавляем:
Яндекс — h++p://webmaster.yandex.ru/addurl.xml
Google — h++p://www.google.ru/addurl/
Рамблер — h++p://robot.rambler.ru/cgi-bin/addsite.cgi
В тех случаях, когда добавление в ПС запрещено — скорей всего домен забанен. В этом случае корректируем все недочеты и пишем Платонам.
Проверка индексации страниц
Проверив на присутствие в ПС, оцениваем количество страниц, участвующих в поиске. Если сайт относительно новый, то всех страниц в индексе можно и не ожидать. Однако, если сайту несколько месяцев, и количество меньше того, которым обладает сайт, то возможен ряд причин:
- Сайт находится под фильтром АГС
ПС — Яндекс, кол-во страниц в индекс гораздо меньше «локального» количества, по сравнению с Гуглом.
- Не учтённые страницы запрещены к индексации
либо через robots.txt, либо через метатеги запрета — <META CONTENT=»NOINDEX,NOFOLLOW»>
- Ошибки HTML кода
Отсутствие декларации <!DOCTYPE>, не валидная кодировка
- Другие внутренние и внешние факторы
Дублированный контент, большое кол-во ВС, не поддерживаемый формат документа и т.д.
Советую добавить сайт в панель вебмастера Яндекса и проследить, какие страницы не были допущены к индексации и почему. Посмотреть можно в графе «Исключено роботом«.
Проверка на запрещённые методы продвижения
Страдать сайт может от запрещённых методов продвижения, которые могли быть применены и без вашего участия. Распространены:
- Нечитаемый пользователем или скрытый текст
Совпадение цвета текста и фона. Очень грубый и чёрный способ обмана ПС. Наказывается на раз. Проверить можно визуально, нажав CTRL+A, если выделится текст, которого не видно, то его цвет совпадает с цветом фона.
- Клоакинг (от англ. cloaking — маскировка, укрытие)
Различие информации, которая выдаётся пользователю и ПС. То есть ПС видит одну страницу (напичканную ключами), а пользователь — другую (хорошо оптимизированную и читаемую). Технически реализуется весьма не просто. Поэтому проверяем, чтобы основные страницы содержали тот же текс, который видит ПС. Проверяйте соответствие КЭШа к текущему состоянию (заменить домен на свой) — h++p://hghltd.yandex.net/yandbtm?url=http%3A%2F%2Fwww.site.ru%2F&text=%E2
- Дорвеи
Это страницы сайта, которые оптимизированы под конкретные запросы путём повышения плотности ключевых слов к общему тексту. Призваны для привлечения трафика с ПС. Проверяйте, не являются ли страницы вашего сайта дорвеями и не ссылаются ли они на ваш сайт (полуюмор).
- Свопинг
Данный чёрный метод славится тем, что после достижения акцептором верхних позиций по конкурентным запросам и привлечения трафика — он резко меняет содержание той же страницы, что приводит к косому взгляду со стороны ПС. Проверяйте соответствие КЭШа к текущему состоянию (заменить домен на свой) — h++p://hghltd.yandex.net/yandbtm?url=http%3A%2F%2Fwww.site.ru%2F&text=%E2
- Ссылочный спам
Обмен ссылками так же карается ПС. Размещая ответную ссылку на страницах сайта — вы повышаете количество ВС (внешних ссылок). Тем самым даёте повод ПС считать ваш сайт — линкопомойкой. Проверить ВС можно сервисом — h++p://www.slavssoft.ru/developer/?page=site_robot
- Избыточное автоматическое перенаправление (редиректы)
Страницы сайта используют редирект кодов — 301, 302, 303. Стоит использовать только в случае переноса адресов страниц.
Оценка оригинальности контента
Не оригинальный контент является весомым вкладом в применение санкций от ПС. Выражается:
- Фильтр АГС 30 (ex 17)
Дублированные страницы одного домена просто исключаются из индекса, так же как и не нужные (по мнению Яндекса). Пример: архивы сайта, теги, рубрики, результаты поиска, версии для печати. Все эти страницы содержат в себе контент, который повторяется, относительно прямого адреса страницы. Избежать фильтра можно закрыв страницы метатегом <META NAME=»ROBOTS» CONTENT=»NOINDEX «>, либо указав запрет в файле robots.txt
- Понижение в ранжировании
То есть ПС не дают высоко ранжироваться сайту с неуникальным контентом. Высоких позиций можно не ждать.
Проверить контент на оригинальность можно множеством программ и сервисов. Наиболее распространена — Advego Plagiatus. В случае, если контент не оригинальный и если чувствуете, что позиции сайта не высокие — меняем текст на уникальный.
Проверка на ошибки в HTML коде
Ошибки в коде сайта также могут непосредственно влиять на проблемы с индексацией, позициями, продвижением. Самый простой способ проверить на валидность кода можно через сервис — h++p://validator.w3.org/. Основные грубые ошибки HTML кода:
- Отсутствие декларации <!DOCTYPE>
Деклараций, отвечающая за объявление типа документа, то есть сообщает какую версию (X)HTML вы используете. Её отсутствие в ряде случаев пагубно влияет на корректность документа, что приводит к проблемам взаимоотношений с ПС.
- Errors, Warnings
не существенные ошибки, которые следует разбирать с помощью специальных сервисов. Советую приводить код к валидному виду.
- Кодировка
Проверяйте сайт на соответствие кодировки самого кода и указанной кодировке в метатеге:
<meta http-equiv=»Content-Type» content=»text/html; charset=кодировка«>
Несоответствующие кодировки напоминают клоакинг.
- Не закрытый NOINDEX
Бывают случаи, когда в коде при запрете какой-либо ВС или не нужной информации с помощью данного тега, просто забывают его закрыть. Тем самым начиная с открытого тега и до конца документа — его индексация в Яндексе не возможна. Следует тщательно проверять на закрытие!
Так же следите за тем, чтобы все ваши теги были закрытыми.
Анализ работы хостера
В первом случае — это проверка скорости загрузки сайта. Низкая скорость отдачи информации от сервера хостинга может привести к тому, что ПС будут пренебрежительно относиться к ранжированию и индексации вашего сайта. Задав вопрос: «Зачем ПС выводить на высокие позиции сайт, который грузится очень долго?», можно самому додумать ответ. Проверить скорость загрузки сайта и, следовательно, скорости сервера можно через сервис h++p://www.pr-cy.ru/speed_test. Вписывайте ваш сайт + сайты ваших конкурентов и сравнивайте результаты. Более 3 секунд — следует срочно переезжать!
Также советую отследить перебои в работе серверов хостера. Это можно сделать, просмотрев логи ошибок (читать FAQ хостера). Естественно, если сайт несколько раз в день просто выключается из-за того, что сервер терпит большие нагрузки, то следует сменить своего хостера. А если сбой произойдёт в момент или в преддверии апдейта выдачи? Многие испытывают проблемы, поэтому на анализ хостинга тоже следует уделить время.
Проверка через сервис мониторинга веб-сайтов h++p://host-tracker.com/
Принцип работы сервиса таков, что из разных точек мира (на сегодня их больше 100 штук) производится периодическая проверка доступности сайта, в результате при «падении» хостинга у Вас будет информация как на ящике, так и в виде СМС, это позволяет просто с феерической скоростью набрать номер хостинг провайдера и решить проблему оперативно.
Есть проблемы правда, но они нивелируются плюсами такого подхода. Допустим если «ляжет» канал вне России, зарубежка — естественно будет сигнализировать о недоступности, но в РФ сайт работать будет. Также есть постоянные отчеты и «кнопка» с циферкой суммарной, сколько в % времени был доступен сайт.
Так что реально рекомендую потратиться в 5$ и брать тариф на несколько сайтов :) хотя там и фри версия вроде бы есть.
Проверка внутренней оптимизации
Внутренняя оптимизация может способствовать как повышению позиций сайта и индексации, так и понижению в ранжировании. Рассмотрим основные моменты:
- Более 1 тега H1
Тег H1 подразумевает одно вхождение в документ, так как это заголовок верхнего уровня. Сравнить можно с заголовком книги, который по стандарту встречается 1 раз. Повторное вхождение может привести к тому, что ПС будут с опаской смотреть за страничкой.
Пользуемся сервисом проверки контента h++p://pr-cy.ru/analysis_content
- Количество ВС
Внешние ссылки — один из тех параметров, к которым конкретно Яндекс относится весьма негативно. Ссылаясь на другие сайты, вы как минимум передаёте им свой вес, а так же позволяете поисковому роботу переходить по таким ссылкам. Особенно пагубное воздействие несёт за собой факт того, что ссылки ведут на некачественные сайты, к которым скорей всего С уже применили санкции. За это наказывается и сам акцептор. Советую скрывать такие ссылки тегом <noindex>ВС</noindex>. Количество не скрытых ВС не советую чтобы превышало 5-6, особенно с морды.
Пользуемся сервисом анализа сайта h++p://pr-cy.ru/analysis
- Количество реальных ВС
Все открытые + скрытые от поисковых систем внешние ссылки будем называть «реальные ВС». Яндекс не обходит внешние ссылки, заключённые в noindex, он их прекрасно видит и хранит у себя в базе, вот только не придаёт им значения. Количество реальных ВС советую делать не более 15.
- Чрезмерность тегов выделения
Всякие теги выделения (b, strong, u и т.д.) должны знать свою меру. Если на странице несколько вхождений ключевого запроса в текст, то выделение более 1 раза не имеет смысла. Повторное выделение приводит во многих случаях к санкциям и понижению в ранжировании.
Пользуемся сервисом проверки контента h++p://pr-cy.ru/analysis_content
- Плотность ключевых слов
Плотность ключевых слов — отношение количества ключей ко всему контенту страницы. На то она и плотность, что должны быть в меру. Превышение плотности — полу-дорвей. Оптимальной плотностью считаю — до 10 %.
Пользуемся сервисом проверки контента h++p://pr-cy.ru/analysis_content
- Количество символов текста
Текст на страницы — неотъемлемая её часть, в прочем даже основная. Так как посетитель сайта, перейдя с ПС, хочет видеть информацию, релевантную своему введённому запросу, то не стоит его разочаровывать. 1-2 предложения никому не будут интересны, да и высоко ранжироваться такие страницы не будут. Тем более, если страница содержит текст в сайдбаре, футере и шапке, то он будет повторяться на всех страницах. И основной текст, который будет состоять из малого количества символов, не поможет вам избежать фильтра АГС-30. В большинстве случаев, такой статичный текст составляет порядка 1000 символов. Советую для остального составляющего страницы (основной текст) использовать: от 4000 символов (для морды) и от 2000 (для внутряка).
Пользуемся сервисом проверки количества символов h++p://pr-cy.ru/textlength
- Дублирующие ссылки
На странице могут присутствовать внутренние ссылки на ту же страницу с разными анкорами. По сторонним экспериментам было замечено, что Гугл учитывает только первую ссылку, Яндекс — все. Можно конечно и воспринимать как факт, но превышать количество в 2 ссылки нет смысла.
Оценка сайта глазами ПС
- Robots.txt
В этом пункте следует уделить больше внимания. Так как robots.txt — инструкция для роботов поисковых систем, следуя которой они принимают решения об индексации. Самая распространённая ошибка — это указание директивы Disallow в таком виде:
Disallow: /
То есть таким образом мы запрещаем весь сайт к индексации!
Хорошим robots.txt считаю:
User-agent: Yandex
Disallow: /категория не для индекса
Disallow: /категория не для индекса
Host: www.site.ruUser-agent: *
Disallow: /категория не для индекса
Disallow: /категория не для индекса
Sitemap: h++p://www.site.ru/sitemap.xml
Где:
User-agent: Yandex — указание нижестоящих правил для Яндекса
Disallow: / категория не для индекса — категория или страница, которая нам не нужна в индексе
Host: www.site.ru — указание на основной домен с www или без. Данная директива указывается непосредственно к поисковой машине Яндекс
User-agent: * — указание нижестоящих правил для всех ПС
Sitemap: h++p://www.site.ru/sitemap.xml — указание ссылки на карту сайта в формате xml
Перед вторым указанием инструкций для ПС следует ставить пустую строку, так же как и перед картой сайта!
Более подробный разбор файла инструкций для поисковых систем robots.txt мы будем рассматривать в другой статье.
- Текст и ссылки
Проверяйте, какой текст и ссылки видят поисковые роботы. Проверить можно сервисом по просмотру сайта глазами ПС h++p://saitomer.ru/bot_simulator/
Проверка региональной зависимости
Продвигая сайт нужно обязательно следить за региональной привязкой к самому сайту и к гео-зависимостью ключевых запросов. Запросы делятся на:
- Гео-зависимые запросы
Те, при которых сайты ранжируются в разных регионах по-разному.
- Гео-независимые запросы
В любом регионе ранжирование сайтов происходит одинаково.
Проверить на зависимость можно через поиск в разных регионах h++p://webmaster.yandex.ru/compare_regions.xml
Выдача одинаковая — запрос гео-НЕзависим. Выдача разная — запрос гео-зависим
Если вы продвигаете сайт по гео-зависимым запросам, то присвоение региональной зависимости сайту — крайне обязательно! В остальных случаях — не обязательно.
h++p://www.seowit.ru/seo-audit-sajta
Оставьте первый комментарий