SEO-аудит представляет собой техническую, внестраничную и контентную оценку сайта. Он измеряет степень эффективности со стороны SEO и отмечает все ошибки, которые мешают сайту занимать более высокие позиции в поисковой выдаче поисковых систем. Следовательно, SEO-анализ относится к тому, насколько хорошо ваш сайт оптимизирован, чтобы он отображался среди первых результатов поиска Google.
Что такое аудит сайта?
Анализ сайта состоит из 3-х ключевых частей, а именно:
- SEO On-Page аудит: выявление и исправление основных технических проблем, которые могут негативно повлиять на органический трафик (т.е. поступающий от SEO);
- аудит контента: анализ текстов, изображений, архитектурной структуры сайта;
- аудит конкурентов: внимательно изучите поведение конкурентов: как они зарабатывают обратные ссылки, какие ключевые слова используют, как быстро загружается их сайт, насколько авторитетен их сайт и сколько усилий он вкладывает в создание хорошего контента для SEO.
Какие методы SEO-анализа используются для создания аудиторского отчета?
- Анализ исходного кода, для выявления возможных ошибок: https://validator.w3.org/.
- Анализ всех уведомлений и разделов Search Console, чтобы узнать, как веб-сайт взаимодействует с Google и требуется ли корректирующее действие: https://search.google.com/search-console.
- Ручной анализ информационной архитектуры и навигации.
- Ручной анализ внутренней ссылочной структуры.
- Анализ просмотра сайта на мобильных устройствах (GSC и https://search.google.com/test/mobile-friendly).
- Анализ грамматической и орфографической правильности текстов на сайте.
- Анализ наличия или отсутствия актуальной для целевой аудитории сайта информации.
- Анализ неэффективных страниц по сравнению с обычными. популярные, чтобы увидеть, какой тип контента целевая аудитория ожидает от сайта (Search Console Insights — https://search.google.com/search-console/insights/.
- Анализируя показатели авторитета SEO, такие как авторитет домена (оценка от 1 до 100 — представляет способность сайта ранжироваться на основе алгоритма PageRank (https://en.wikipedia.org/wiki/PageRank), этот показатель рассчитывается в соответствии с комбинациями метрики вашего сайта, такие как: общее количество ссылок на сайт, количество сайтов, которые ссылаются на сайт, их качество/авторитет и т. д. Авторитет определяет конкурентоспособность веб-сайта и показывает оценочным способом усилия требуется команде SEO для высокого рейтинга.), Авторитет страницы (оценка от 1 до 100 - представляет способность страницы ранжироваться на основе алгоритма PageRank).
- Позиционирование в чартах по ключевым словам, с помощью инструментов анализа позиций, таких как: SEOMonitor; Когнитивное SEO.
- Количество обратных ссылок и их качество — анализируются с помощью специальных инструментов SEO, таких как Ahrefs или Semrush. С точки зрения SEO, ссылки DoFollow имеют наибольшее значение, но ссылки NoFollow также имеют определенное значение, поскольку они указывают на активность сайта, а также являются потенциальным источником трафика.
- Уровень индексации страниц сайта — здесь мы анализируем общее количество HTML-страниц, проиндексированных в Google. Метод проверки:
1. Введите эту фразу в поле поиска Google: site:<имя домена>
2.Сравниваем количество HTML-страниц, найденных в Google, с найденными SEO-инструментом Screaming Frog (его использование бесплатно для первых 500 страниц сайта):
3. Делаем вывод, правильно ли проиндексированы большинство или все страницы сайта.
- Мы анализируем время безотказной работы сервера. Время безотказной работы — это время, в течение которого сервер работает. Время, когда сайт находится в сети. Это зависит от качества вашего хостинга: https://www.uptrends.com/tools/uptime.
- Правильное использование файла "Robots.txt" - Этот файл robots.txt дает инструкции поисковым системам, какие страницы сайта должны отображаться в результатах поиска, а какие нет. Файл robots.txt для конкретного сайта можно посмотреть следующим образом: https://domain.com/robots.txt.
- Правильное использование тегов «мета-роботы» (follow, nofollow, index, noindex) — это теги, которые предоставляют инструкции в HTML и указывают поисковым системам, что
страницы, чтобы они не отображались в органической выдаче. - Ошибки на стороне клиента (ошибки типа 40x, такие как -404) - это ошибки, связанные с соединением клиент-браузер, и было бы хорошо, если бы они все были устранены.
- Ошибки на стороне сервера (50x) — это ошибки, связанные с подключением сайта к серверу, и их необходимо удалить.
- Наличие и правильная настройка файла «Sitemap.xml» — это протокол, сообщающий ботам Google и другим поисковым системам, какие URL-адреса сайта доступны для сканирования (индексирования). Он входит в Google Search Console. Его можно проверить вручную на его существование следующим образом: <domain>/sitemap.xml.
- Правильная нумерация страниц с помощью атрибутов <rel="prev", rel="next" — они используются для обозначения отношений между последовательностью страниц: http://www.example.com/topic/page/2/.
- Использование специального, привлекательного шаблона страницы ошибки 404. Поисковые системы сканируют сайт, анализируя ссылки на все страницы сайта, и если им попадется страница 404, не имеющая ссылок на другие области сайта, они не будут иметь возможность продолжить индексацию. Пользовательская страница 404 гарантирует, что этого не произойдет.
- Использование breadcrumps на всех страницах сайта — проверяем прямо на сайте:
- Дружественная структура URL - мы проверяем структуру из списка ссылок, полученного от Screaming frog, с помощью этого инструмента https://seositecheckup.com/tools/seo-friendly-url-test.
- Дефисы, используемые в качестве разделителя по умолчанию в URL-адресах — проверяется, чтобы URL-адреса не содержали разделитель, такой как «?», или другие специальные символы. Использование дефисов в адресах значительно упрощает для Google определение содержания страницы. Например, URL-адрес, содержащий фразу «my_page», будет интерпретироваться как «mypage» вместо «my page» вместо «my-page» = «my page».
- Структура URL-адресов короткая, и ими легко поделиться — мы проверяем структуру по списку ссылок, полученных от Screaming Frog. Рекомендуется, чтобы URL-адрес состоял из 4-5 слов.
- URL-адреса содержат лучшие ключевые слова — мы проверяем структуру по списку ссылок, полученному от Screaming Frog.
- Возможные проблемы с SEO-тегированием (например: теги для SEO: заголовок и мета-описание должны быть правильно размещены в <head>) — проверяем непосредственно из исходного кода, нажав «Проверить элемент».
- Метатеги уникальны и подходящей длины для каждой страницы сайта — наличие метатегов (заголовок и метаописание) проверяем с помощью Screaming Frog.
- Наличие заголовков на сайте (H1-H6) - Проверяем наличие H1 и H2, а также подробности о них с помощью Screaming Frog.
- Наличие на сайте структурированных данных (Schema.org) — то есть того особого языка, с помощью которого поисковые системы гораздо лучше понимают содержание веб-страницы и выдают наилучшие возможные результаты.
- Мы проверяем, присутствует ли Data Mark на сайте с помощью этого инструмента: https://developers.google.com/search/docs/advanced/structured-data.
- Контент страниц сайта - это часть аудита контента. Мы проверяем структуру страниц и текстов здесь.
- Мы следим за тем, чтобы на каждой странице сайта был мультимедийный элемент: изображение или видео — это часть аудита контента.
- Следим за отсутствием индексируемого дублирующегося контента (правильно используем тег Rel=Canonical) - должны любой ценой предотвратить образование дублирующегося контента на сайте, канонизацию проверяем инспектированием, в Screaming Frog видим дублирующиеся теги. Часто называемые rel="canonical", канонические теги — это способ сообщить поисковым системам, что указанный URL-адрес является копией главной страницы.
- Никаких «цепочек перенаправлений» — множественные перенаправления с одной исходной ссылки на другие (несколько, в цепочке) считаются вредными для SEO, и их следует избегать.
- Следим за быстрой загрузкой сайта - проверяем скорость загрузки сайта с помощью инструментов PageSpeed Insights: https://pagespeed.web.dev/ и GTMetrix: https://gtmetrix.com/.