Анна Григорьева
Тимлид в SEO-отделе

Прежде чем приступать к продвижению, необходимо в первую очередь провести технический аудит, выявить проблемы с индексацией, проверить отсутствие фильтров от Яндекса и Google. Только после подробного анализа можно приступать к оптимизации проекта. В этой статье мы расскажем, как исправить ошибки на сайте: удалить дубли; прописать alt; проанализировать robots.txt, sitemap и настроить корректные редиректы.

Зачем нужны улучшения 

Главная цель SEO – это улучшить качество ресурса и оптимизировать его под требования поисковых систем. Такое продвижение позволяет увеличить: 

  • видимость; 
  • позиции в топе;
  • органический бесплатный трафик;
  • процент CTR; 
  • прибыль; 
  • количество полезных страниц в индексе.

Когда необходим технический аудит 

Такой анализ обязательно должен проводиться на этапе запуска проекта, после переезда на новый домен, cms или редизайна, а также при изменении структуры разделов. В идеале анализировать сайт на наличие ошибок следует не реже одного раза в 2-3 месяца. 

Как обнаружить проблемы, связанные с SEO

С задачей справляются различные сервисы и вебмастера Яндекса и Google. Такие инструменты имеют много полезных функций и возможностей. Мы в своей работе часто используем следующие: 

  • PageSpeed Insights (оптимизация скорости загрузки);
  • Be1.ru (визуальный редактор HTML, проверка видимости); 
  • «Кулаков» (группировка запросов, аудит кодов ответа сервера);
  • Плагин RDS Bar (число проиндексированных страниц, ИКС); 
  • SEO META in 1 click (отслеживание мета-тегов и заголовков h1-h…);
  • I love adaptive (отображение блоков в мобильной версии);
  • «Пиксель Тулс» (просмотр ссылочной массы, поиск поддоменов);
  • Labrika (полный техаудит). 

Какие инструменты использовать, чтобы найти технические ошибки на сайте 

Даже если вам кажется, что состояние вашего ресурса — отличное, мы все равно рекомендуем его проанализировать. Для проведения поверхностного анализа существует большое количество различных сервисов, выбор которых зависит от личных предпочтений оптимизатора или владельца. Мы опишем 3 основные программы, которые нам помогают в нахождении проблем: 

  • Яндекс.Вебмастер;
  • Google Search Console;
  • парсеры (Xenu или Site Analyzer). 

Ниже разберем каждый из них более подробно. 

Привлечем целевых пользователей из Яндекс и Google. Работаем над внутренними и внешними факторами ранжирования и видимостью сайта в поисковиках. Вы получаете рост посещаемости и высокий охват среди потенциальных клиентов.
Оставить заявку
Подробнее…

Яндекс Вебмастер

Как только вы запустите сайт и он будет открыт для индексации, важно добавить его в этот инструмент. Здесь будет отображаться вся необходимая информация о вашем ресурсе: 

  • индекс качества;
  • отзывы; 
  • критичные, фатальные и возможные ошибки; 
  • рекомендации по улучшению;
  • CTR; 
  • исключенный из поиска страницы. 
как выглядит webmaster

Гугл Вебмастер  

С помощью этого сервиса вы сможете отслеживать:

  • эффективность интернет-ресурса; 
  • индексацию, безопасность;
  • нарушения в sitemap;
  • удобство мобильной версии;
  • корректность параметров микроразметки;
  • внешние и внутренние линки.
консоль Гугла

Парсер 

Он позволит выгрузить все адреса и анализировать: 

  • заголовки h1, h2, h3 и тд;
  • Title и Description;
  • присутствие тега noindex; 
  • код ответа сервера; 
  • протокол;
  • url перенаправления; 
  • наличие параметра Canonical;
  • время загрузки. 
парсинг данных

Наиболее распространенные ошибки 

Теперь подробнее разберем, какие проблемы можно обнаружить с помощью техаудита. 

Битые ссылки 

Это линки, которые ведут на страницы Not Found (404).

ощибка 404

Они очень плохо влияют на продвижение, а возникают из-за того, что на сайт часто вносятся различные изменения, которые влекут за собой негативные последствия. Например: 

  • закончился товар и требуется удалить его карточку;
  • перенесли товарную позицию/подраздел/услугу из одной родительской группы в другую, что повлекло за собой смену url;
  • указали адрес в параметре <a href=» «>анкор</a>, но написали его с ошибкой;
  • полностью изменили структуру;
  • поменяли главное зеркало. 

Без должного анализа и своевременной настройки 301 редиректа такие корректировки принесут очень много вреда. А именно: 

  • В поисковой выдаче могут появиться страницы с 404 кодом ответа сервера. Если пользователь из поиска перейдет на одну из них, он, скорее всего, уйдет с ресурса. Это увеличивает процент отказов и ухудшает поведенческие факторы. Если юзер внутри сайта также перейдет по неработающей ссылке, происходит аналогичная ситуация – скорее всего он покинет площадку и пойдет к конкурентам.  
  • Неработающие линки участвуют во внутренней перелинковке и негативно влияют на распределение ссылочного веса. 
  • Системы Яндекс и Google плохо относятся к веб проекту с большим количеством битых гиперссылок. Они считают, что его «забросили», поэтому хуже его ранжируют. В таком случае вы заметите, что позиции по запросам просядут.

Если изменились url или были удалены некоторые карточки товаров, следует с неактуальных адресов настроить 301 редирект на актуальные, тогда проблем с неработающими линками у вас не будет. 

Отсутствие robots.txt

Это файл, который содержит список правил для роботов. То есть прежде, чем сканировать сайт, бот обращается к роботсу, чтобы ознакомиться с инструкцией и понять, какие разделы можно проиндексировать, а какие – нельзя. 

Правила отображаются с помощью директив: 

  1. Disallow (запрещающая);
  2. Allow (разрешающая).

Также в robots обязательно должна быть ссылка на sitemap, чтобы ботам было легче просканировать нужные категории.

Проверить, есть ли он на вашей площадке легко, необходимо ввести в поисковую строку такой запрос: 

%домен% + robots.txt 
https://site.com/robots.txt

Если вам откроется похожая страница, значит, он у вас есть.

файл роботс

Если отражается Not Found, значит, его у вас нет. Чтобы создать robots.txt, понадобится обычный текстовый редактор. С помощью него можно  прописать правила для роботов, а затем этот список отдать техническому специалисту, который добавит его в корневой каталог сайта через FTP или панель управления сервером. Либо внедрить инструкцию самостоятельно, если в админке реализована такая функция и доступ к редактированию открыт.

Правильно настроенный robots позволит сэкономить краулинговый бюджет и облегчить поисковым машинам путь к полезным разделам. А его отсутствие приведет к проблемам с индексацией.  

Нарушения в sitemap.xml

Этот файл содержит ссылки на страницы, которые нужно проиндексировать. Есть два вида карт: 

  • HTML – для пользователей;
карта сайта
  • XML – для ботов. 
xml-файл

Sitemap необходим для роботов, потому что он содержит информацию о том, какие странички следует проиндексировать в первую очередь и с какой частотой. Он находится в корне сайта и редактировать его может только технический специалист.  

Если в файле xml содержатся ошибки, это затруднит работу ботов Яндекса и Google и тем самым снизит скорость попадания важных и полезных категорий в индекс. Часто встречаются следующие проблемы: 

  • закрыт запрещающей директивой в robots.txt;
  • пустая карта (нет ни одного адреса);
  • содержит более 50 000 линков;
  • наполнен url страниц, которые отражают код ответа сервера отличный от 200.
Мы создаем востребованный контент, который отвечает на запросы потенциальных клиентов, оптимизируем статьи и настраиваем коммерческие триггеры. Вы получаете ощутимый прирост переходов в каталог товаров и услуг из блогового раздела.
Оставить заявку
Подробнее…

Отсутствует протокол HTTPS

Если ваша площадка все еще на http, вам следует задуматься о переходе на более безопасное соединение, то есть – https. Это позволит снизить риск перехвата сведений пользователей, таких как: 

  • логины;
  • пароли;
  • данные банковских карт;
  • номера телефонов;
  • и тд.

Чтобы улучшить защиту, нужно:

  • получить SSL-сертификат;
  • изменить внутренние и внешние линки (перелинковки, sitemap, css, js);
  • проверить корректную работу протокола; 
  • настроить 301 редирект с неактуальных адресов на актуальные.   

Эта процедура важна, чтобы сохранить сведения о клиентах в безопасности и защитить их от мошенников. В Google Chrome сайты с http обычно отображаются как небезопасные, поэтому часто пользователи отказываются от их посещения, что негативно влияет на органический трафик и позиции в топе выдачи. Причиной этому служит данное предупреждение: 

незащищенное подключение

Корректная настройка зеркал 

При смене протокола изменится и url. Из-за этого может получиться несколько вариаций написания домена: 

https://домен.ru; 

http://домен.ru; 

https://www.домен.ru; 

http:///www.домен.ru.

Поисковые роботы воспринимают их как разные. Поэтому они отображаются в поиске как отдельные сайты, и конкурируют между собой. Это приводит к потере трафика и позиций. Чтобы этого избежать, необходимо склеить данные зеркала 301 редиректом. Перенаправление должно быть настроено: 

  • со старого адреса главной на новый;
  • со всех неактуальных разделов/карточек товаров на актуальные. 

Дубли контента  

Это ситуация, когда на разных url находится одинаковая или похожая информация. Дублирование бывает двух видов:

  • четкое (полное совпадение);
  • нечеткое (частичное сходство). 

Если такая проблема существует, она обычно приводит к: 

  • ухудшению индексации (в выдачу =попасть дубликат, а важная страница исключаться из поиска); 
  • попаданию под фильтры поисковых систем («АГС» от Яндекса, «Панда» от Google). 

Если на сайте встречаются четкие дубли, то необходимо с неактуальных категорий настроить 301 редирект на актуальные или же прописать параметр Canonical. Если вы столкнулись с нечетким дублированием, тогда ситуацию можно исправить уникализацией контента, то есть, просто переформулировать текстовой блок, FAQ, прописать мета-теги, добавить новые фишки.

404 код ответа   

Прежде чем отрисовать для пользователя веб-страницу, браузер отправляет запрос серверу. Если url доступен – он имеет статус 200 ОК и раздел отображается корректно. Если при обращении возникнет проблема, посетителю отобразится ошибка Page Not Found. Чтобы процент отказов не увеличился, необходимо избегать битых ссылок, то есть обязательно заменять их на актуальные или настраивать 301 редирект. 

Однако к оформлению несуществующих страниц также есть требования, они должны:

  • повторять дизайн сайта;
  • содержать гиперссылки на основные категории и на главную;
  • отражать состояние 404. 

Наличие перелинковки – это важное условие, чтобы удержать внимание пользователя как можно дольше.

Неправильная настройка редиректов 

Перенаправление нужно, чтобы у ресурса не возникло проблем с индексацией. То есть, если вы поменяли структуру, то все старые адреса станут отражать 404, следовательно, весь трафик, который шел на них раньше, просто на всего пропадет. Чтобы этого не случилось, следует настраивать 301-Redirect с неактуальных url на актуальные. Это позволит сохранить вес и историю линков, а также ваших посетителей.  

Однако при реализации перенаправления часто допускают ошибки, которые приводят к: 

  • образование цепочек редиректов (см. изображение ниже);
  • переадресация на разделы с кодом ответа сервера отличным от 200 ОК;
  • redirect на нерелевантные адреса (например, с карточек товаров на главную). 
проверка ответа сервера

Чтобы избежать таких проблем, необходимо тщательно прорабатывать карту 301 редиректов и только после ее проверки – приступать к настройке.  

Низкая скорость 

Медленный сайт раздражает пользователей, из-за этого увеличивается процент возвратов к выдаче, что негативно влияет на продвижение. Чтобы проверить, насколько быстро подгружаются страницы, можно использовать сервис Google PageSpeed, где есть 3 основные зоны: 

  • зеленая (все хорошо);
98 процентов производительности
  • желтая (стоит немного доработать);
51 процент производительности
  • красная (все плохо). 
38 процентов производительности

Тормозить загрузку могут следующие факторы:

  • медленная cms или движок (также часто используются слишком тяжелые плагины, которые забирают много оперативной памяти);
  • большое количество несжатых изображений (нужно уменьшать разрешения картинок или менять их формат на более адаптивный); 
  • отсутствие кэширования (при правильной настройке кэша после каждого визита сайт не будет заново загружаться);
  • избыток рекламы (это хороший вариант монетизации, но чрезмерное присутствие рекламных элементов сильно замедляют загрузку). 

JS и CSS

На скорость также влияет наличие скриптов и стилей в коде. Если вы столкнулись с такой проблемой, необходимо просто вынести их в отдельный файл. 

Ошибка: 

стили

Как должно быть:

html

Нет мобильной оптимизации 

Сейчас при поиске нужной информации пользователи в основном используют смартфоны, поэтому адаптация площадки для гаджетов – это важный фактор для увеличения трафика. При проверке адаптивности ресурса следует обратить внимание на следующие требования: 

  • отсутствие мелких элементов, на которые невозможно попасть пальцем;
  • удобный просмотр всех блоков контента;
  • версия для телефонов открыта для поисковых роботов; 
  • востребованные и полезные разделы имеют код ответа 200; 
  • подключение amp и турбо-страниц;
  • наличие только вертикальной прокрутки, горизонтальной не должно быть;
  • удобочитаемые тексты;
  • всплывающие окна или кнопки онлайн-заявок не перекрывают контент;
  • легкая регистрация.

Посмотреть ошибки мобильной версии можно в вебмастерах Яндекса и Google. 

вебмастер
консоль гугла
Как увеличить трафик: раскрутка посещаемости сайта Читайте также Как увеличить трафик: раскрутка посещаемости сайта

Отсутствие ALT

Присутствие данного атрибута сказывается на успешном ранжировании ресурса. Альты влияют на то, чтобы изображения участвовали в поиске по картинкам, а также позволяют пользователям при медленном интернете видеть вместо фото его краткое описание. 

Если такой элемент отсутствует, его необходимо заполнить через административную панель вручную или шаблонно, привлекая технических специалистов. 

Основные требования к заполнению ALT: 

  • должен описывать, то что находится на фотографии;
  • состоять из 2-4 слов;
  • прописан без переспама. 
примеры альтов

Корректность кодировки

Такая проблема возникает, когда на сайте отображаются плохо читаемые символы или вопросительные знаки вместо качественного текста. Это происходит из-за того, что код файлов (используется ср1251) не совпадает с настройками сервера или базы данных (обычно это UTF-8). При обнаружении такой проблематики нужно обратиться к техподдержке, которая поправит эту ситуацию с помощью:

  • добавления специального скрипта;
  • внесения изменений в .htaccess;
  • установки кодировки UTF-8 по умолчанию.

Заключение 

В этой статье мы рассказали, как проверить сайт на наличие технических ошибок, объяснили, что они значат и как их поправить. Результаты по увеличению органического трафика зависят от того, насколько качественно будет проведен техаудит. Именно поэтому необходимо со всей ответственностью отнестись к его проведению и решению всех обнаруженных проблем.  

Оставить заявку
Оставить заявку
Получите консультацию и персональное предложение по развитию вашего бизнеса.
У меня есть промокод
Заявка отправлена!
Мы свяжемся с вами в ближайшее время.
0 0 голоса
Рейтинг статьи
Подписаться
Уведомить о
0 Комментарий
Межтекстовые Отзывы
Посмотреть все комментарии